PRINCIPIOS BÁSICOS DE ESCALADO

 

 

 

 

 

 

 

 

 

 

 

Dr. Roberto A. González Castellanos

Profesor Titular Adjunto

Investigador Auxiliar

 

 

 

 

 

 

 

 

 

 

Centro de Estudios de Combustión y Energía (CECYEN)

UNIVERSIDAD DE MATANZAS

"CAMILO CIENFUEGOS"

 

 

 

 

 

 

 

 

 

Diciembre 2000


PROLOGO

   

     Las presiones competitivas en la industria química y en  la biotecnológica hacen cada vez más necesario contar con procedimientos que permitan escalar lo más rápido y directo posible, desde los laboratorios de investigación y  desarrollo. para poder acortar el tiempo que transcurre entre la concepción de un nuevo proceso y la puesta en marcha de la planta correspondiente, a escala industrial.

     Esta tarea no puede cumplirse sin un dominio y aplicación adecuada de las técnicas de esalado y por esa razón, este texto tiene como objetivos generales:

     Presentar de forma ordenada los fundamentos de los métodos de escalado, definiendo adecuadamente ese término.

     Introducir el concepto de Ingenierización en los trabajos de Investigación y Desarrollo.

     Conocer los procedimientos de aplicación del escalado en la solución de los problemas relacionados con el desarrollo de tecnologías y procesos industriales, a partir de resultados científicos obtenidos en los laboratorios.

     Conocer algunas de las aplicaciones prácticas de los métodos estudiados.

     Conocer  la teoría y los fundamentos de las plantas piloto, definiendo la naturaleza de su actividad y las opciones disponibles para la utilización de las mismas.

 

    Para cumplir esos objetivos se han considerado seis capítulos. Para la confección de los capítulos 2, 3 y 4 se tomó como base el clásico texto de Johnstone y Thring "Pilot Plants, Models and Scale-up in Chemical Engineering" , y en especial sus capítulos 2, 3, 4, 5, 6, 7. 8 y 9 y los Apéndices 1 y 2, traducidos y actualizados. El Capítulo 1 se redactó tomando como base los materiales de los Talleres Internacionales sobre Escalado realizados en la Habana en 1992, 1993 y 1995 y para el resto se tomaron como base principalmente artículos de revistas actualizadas de la especialidad y textos como "La Teorìa de los Modelos en la Ingenierìa de Procesos" de J. Rosabal             

 


 

CAPITULO 1                           

 

                INTRODUCCION AL ESCALADO INDUSTRIAL              

 

1.1 Problemas que surgen relacionados con el cambio de escala.

     En el escenario de la  investigación y  el  desarrollo  de  nuevas tecnologías  está  presente  siempre  la  problemática   de   cómo convertir   en  una  estructura  económica   de   producción   los conocimientos logrados  en  el  laboratorio,  concatenándolos  con otros conocimientos ya establecidos,  para  poder  llegar  de  esa forma a una escala comercial de producción. 

     En este proceso de cambio de escala surgen problemas que en muchas ocasiones son ignorados completa o parcialmente y esa ha sido la causa de no pocos fracasos. Estos problemas pueden ser  agrupados en dos tipos fundamentales: los que se relacionan exclusivamente con la necesidad de manejar grandes volúmenes de material y aquellos en que la naturaleza misma del problema se ve afectada por el tamaño de la escala de operación (Wiseman, 1986).

    En el primer caso se tienen los problemas relacionados con los sistemas de enfriamiento, calentamiento y tratamiento de residuales, los cuales se llevan a cabo con relativa facilidad a nivel de laboratorio y requieren  generalmente de equipos costosos y complejos cuando se realizan  en la escala industrial. También son de este tipo de problemas los relacionados con la necesidad de utilizar diferentes materiales al paso a una escala mayor, como ocurre al emplear reactivos químicos comerciales en lugar de los de grado analítico o la utilización  de recipientes metálicos en lugar de los de vidrio, lo que puede introducir problemas de contaminación.

     Los problemas del segundo tipo surgen cuando los distinto parámetros del proceso se ven afectados de manera diferente por el tamaño de la unidad. Un ejemplo sencillo puede ser el efecto que sobre la superficie específica de un recipiente tiene el cambio de escala. Una serie de recipientes de proprociones geométricamente similares (Capítulo 2), pero de diferentes volúmenes, tienen un volumen que es proporcional al cubo del diámetro del recipiente, pero la superficie de la pared es proporcional al cuadrado del diámetro del recipiente, de manera que la superficie específica, que afecta a la transferencia de calor en las camisas refrigerantes, es proporcional al inverso del diámetro del recipiente.

     Los microorganismos porpoprcionan otro ejemplo muy espectacular de este principio, ya que una de las características de su eficiencia como sistemas reaccionantes microscópicos es su gran superficie con respecto a su volumen. Una bacteria tiene un volumen de aproximadamente 5 x 10-19 m3 y una superficie de alrededor de 6 x 10-12, por lo que la superficie específia es de alrededor de 3 x 10 6, mientras que un m3 de agua se puede encerrar en un tanque con una superficie de 6 m2, lo que hace una superficie específica de 6 , o sea  un millón de veces menor que la de las bacterias.

     En los procesos químicos se tiene que durante la Investigación y Desarrollo de un nuevo producto, uno de los problemas que requiere  una  atención  más estrecha y que en  ocasiones  llega  a  ser  problemático,  es  el escalado del reactor. Es aceptado prácticamente por todos que el diseño  de  un  reactor químico a escala comercial, el cual es el corazón  de  una  planta química, no  puede  llevarse  a  cabo  con  un  enfoque  solamente teórico, por lo cual resulta imprescindible contar con datos de las reacciones involucradas obtenidos a nivel  de  laboratorio,  banco  o  planta piloto.

    Aunque básicamente la velocidad de una  reaccion  química  resulta independiente del tamaño y estructura  de  un reactor (Tabla 6-1), la misma es influenciada por los procesos físicos, por ejemplo  la transferencia de masa y calor, las cuales son controladas por  el tamaño y estructura del reactor (30).

 

Tabla 6-1.Influencia  del  tamaño  en  un  número  de  mecanismos claves en los procesos

 químicos, tomado de Trambouze, 1990 (30).

Mecanismo

Variables importantes

Influencia del tamaño

Cinética Química

T, C, P

Ninguna

Termodinámica

T, C, P

Ninguna

Transferencia de calor

Velocidades locales, P, C

Indirecto

Transf. de masa en una fase fluida

T, C, Turbulencia

Indirecto

Transferencia de masa entre fases

Velocidades relativas de fases, C, T

Indirecto

Convección forzada

Rapidez de flujo, Geometría

Importante

Convección natural

P, C, T, Geometría

Determinante

 

      Por esa causa la reacción química se afecta por el tipo de reactor y  el  efecto  del  incremento  de  escala   resulta   normalmente impredecible de forma cuantitativa, lo que  resulta  más  complejo aún cuando en la reacción participan diferentes fases, a causa  de que los fenómenos no son todos afectados en la misma forma por las dimensiones de una planta (Tabla 6-2) (29).

 

Tabla 6.2. Efecto de las dimensiones geométricas en lo fenómenos pirncipales que ocurren en un reactor con fases múltiples.Tomado de Trambouze, 1979 (29).

    

                  DIMENSIONES GEOMÉTRICAS

MECA-NISMO

Volumen ( DL2)

razón L/D

Superficie lateral/vol.

( D-1)

 

Reac-ción química

Fuerte, prácticamente determinante

Débil e indirecto

Sin influencia directa

 

Transf. de masa

No determinante. Indirecto

Fuerte

Sin influencia directa

 

Transf. de calor

Débil e indirecto

Fuerte

Fuerte y directo

 

 

     Un procedimiento  de  escalado  satisfactorio  puede  requerir  un enfoque empírico paso a paso, en el cual el tamaño del reactor  se va incrementando paulatinamente, para poder conocer en detalle  el efecto del cambio de escala en la velocidad y  rendimiento  de  la reacción. Este procedimiento es largo y costoso.y por ello se  han desarrollado un número de métodos semiempíricos alternativos  para aliviar esta situación.

     Entre esos métodos está la aplicación del Principio de Semejanza,  estudiado  en  el Capítulo 2, la modelación matemática y el uso  de  modelos  a gran escala (mockups) y en muchas ocasiones los mejores resultados se logran con el uso combinado de los mismos ( 25 ). No  obstante, todos  esos  métodos  requieren  de    los   datos   cinéticos   y termodinámicos básicos,  los  cuales  deben  de  obtenerse  de  la literatura si están disponibles o de la experimentación.

 

1.2. Etapas a  considerar  en  los  trabajos  de  Investigación  y Desarrollo (I+D).

El proceso de Investigación y Desarrollo puede considerarse dividido en 5  etapas,  niveles  o escalas:

. Laboratorio

      .  Banco

. Piloto

. Semi-industrial

. Industrial

Esta división  es  convencional  y  por  ello,  como  veremos  más adelante, no son muy precisos los límites entre una escala y otra, ni  tienen  que  considerarse  siempre  necesariamente  todas  las escalas, siendo bastante común,  por  ejemplo,  obviar  la  escala semi-industrial.  También  hay  casos,  cuando   el   proceso   es suficientmente conocido y sus características lo permiten, en  que puede pasarse directamente de la escala de laboratorio a la escala industrial.

En su concepción más simple, el concepto de escalado se refiere al paso de una escala a otra, durante el proceso de desarrollo de  un nuevo producto o tecnología. En ese caso se acostumbra a  utilizar el término escalado ascendente  (scale-up)  al  proceso  que  va desde la escala  de  laboratorio  hasta  la  escala  industrial  y escalado descendente (scale-down)  al  proceso   inverso  aunque conceptualmente son un mismo y único  proceso  de  escalado  y  la definición del concepto éscalado es un poco más  compleja  que  el simple tránsito de una escala a otra.

 

1.3   Definición ampliada del término "escalado".

Para comprender mejor la evolución que han  tenido  los  conceptos relativos al uso de modelos y a las escalas, se debe partir de una de las expresiones más antiguas al respecto, escrita por  Leonardo da Vinci en sus "Notas", aproximadamente en el año 1500  y  citada por  Johnstone y Thring (7) :

"Dice Vitruvio que  los  pequeños  modelos  no  son  útiles  para conocer los efectos de los grandes y yo aquí propongo probar   que esa   conclusión   es   falsa "

(El Vitruvio a que se refería da Vinci era Marco Vitruvio Polión, arquitecto romano del siglo primero de nuestra era, autor de un tradato De architectura, dedicado a Augusto).

Ya a inicios de siglo, en el primer manual de Ingenieria   Química que   se   conoce, su autor, George E. Davis afirmaba (7):

"A small experiment made upon a few grammes  of  material  in   the  laboratory will not be much use in guiding to the  erection  of  a  large scale works, but there is no doubt that an experiment  based  on a few kilogrammes will give nearly all the data required  ... "

 (Un experimento pequeño, realizado en el  laboratorio  con  pocos   gramos de material no será muy útil como guía para la construcción  de una  planta  a  gran  escala,  pero  no  hay  duda  de  que  un  experimento basado en unos pocos kilogramos nos  dará  casi  todos  los datos requeridos ....)

Y en 1916, L. H. Baekeland (2), escribe  una  de  las  frases  más famosas al respecto y que mejor aclara el propósito final  de  los experimentos relacionados con los modelos y las plantas piloto:

  "Commit your blunders on a small scale and make your profits  on    a large scale".

  (Cometa  sus  errores  en  una  escala  pequeña  y  obtenga  sus   ganancias en una escala grande)

En todas estas expresiones se habla de modelos y escalas,  grandes y pequeñas y esos conceptos se unen con el de escalado. Ahora bien ... ¿ Qué entendemos en la actualidad por escalado?

En la práctica existen muchas definiciones del  término  escalado. Una de las  clásicas  lo  limita  al  estudio  de  los   problemas asociados a la transferencia de datos del laboratorio y la  planta piloto  a  la  producción   industrial  (1).  Una  definición  más reciente plantea que  el  escalado  hace  uso  de  los  datos  del laboratorio y/o planta piloto, complementados con modelos  a  gran escala (mockups) y  modelación  matemática,  para  determinar  las dimensiones y  el  tamaño  de  una  unidad  industrial  (4).  Otra definición señala que éste consiste en el complejo de  técnicas  y metodologías  que  se  utilizan   para   transferir   un   proceso desarrollado en una escala menor, a la escala de producción (7). y esta última se ajusta bastante a la concepción actual y  por  ello tomaremos,  como  definición  de  escalado,  una  variante  de  la anterior:

Escalado es el proceso mediante el cual se logra la exitosa puesta en marcha  y  la  operación  económica  de  una  unidad  a  escala comercial  basándose,  al  menos  en  parte,  en   resultados   de investigaciones realizada a una escala más pequeña .

De esta definición de  escalado  quedan  excluídos  los  casos  de diseño de unidades industriales realizados con  procedimientos  de cálculos tradicionales, para los  cuales  sólo  se  necesitan  los datos de las propiedades  físico-químicas  de  las  sustancias  en proceso y las cantidades a procesar para obstener los  valores  de diseño requeridos.

Para que el concepto de escalado sea aplicado,  es  imprescindible que el diseño se realice sobre la base de investigaciones  que  se tengan que realizar con ese fin específico, a una escala  inferior a la industrial, pero no se requiere que se transite por todas las etapas convencionales en que se dividen los procesos de I+ D.

El proceso  completo,  desde  la  escala  de  laboratorio hasta la comercial, pasando por trabajos de banco, planta piloto  y  escala semi-industrial, es largo y costoso y debe ser reducido en todo lo posible, con  el fin de acortar  el  tiempo  que  media  entre  la concepción de un producto y su introducción en el mercado.

No existe duda alguna que es técnicamente posible transferir  casi cualquier   proceso   desarrollado   a   nivel   de   laboratorio, directamente a la producción  industrial  a  gran  escala,  si  se dispone  de  suficiente  tienpo  y  dinero,  de  forma   que   los diseñadores  consideren  factores  de  seguridad   suficientemente amplios y que se esté dispuesto a un largo período  de  puesta  en marcha,  que  permita  adiestrar  al  personal  y  descubrir   las diferentes causas de interrupciones y  problemas  de  operación  y afrontar  los  riesgos  inevitables  en  la  operación  de  nuevos procesos no suficientemente estudiados (7).

Tampoco existe duda que los datos obtenidos en plantas de  pequeña escala, correctamente diseñadas y operadas, son mucho más  seguros para el diseño que los obtenidos directamente del laboratorio, con lo cual  se  pueden  reducir  considerablemente  los  factores  de seguridad en el diseño y reducir apreciablemente el período y  los riesgos de la puesta en marcha de las unidades  comerciales,  pero para obtener dichos datos se requiere a su vez de tiempo y  empleo de recursos materiales y humanos (7).

Por todo lo anterior, en todos los casos resulta imprescindible el análisis detallado de  las  características  del  proceso  que  se pretende desarrollar y del nivel de  conocimientos  que  se  tiene sobre el  mismo,  para  poder  decidir  las  etapas  que  hay  que  acocometer  y planificarlas adecuadamente, de  forma  tal  que  se emplee el mínimo de recursos y  se  culmine  en  el  menor  tiempo posible.

Las técnicas de escalado se han desarrollado precisamentre con  el objetivo de reducir al mínimo indispensable ese tiempo de I+D y en ellas juegan un papel  determinante  las  consideraciones  técnico económicas.

  Finalmente se debe considerar otro objetivo ligado al concepto de escalado y que es  el estudio del comportamiento de una planta en producción existente, a partir de una unidad pequeña que reproduce, en lo fundamental, el funcionamiento de la unidad comercial. Este objetivo cae dentro de la esfera del estudio de los procesos pero en principio no se diferencia del objetivo relacionado con el desarrollo de nuevos procesos,  siendo la única diferencia práctica el hecho de que para el estudio de los procesos se requiere, casi siempre,  solamente de la etapa equivalente a la planta piloto.

 

 

1.4   Alcance  de las etapas de I+D.

1.4.1 Criterios a considerar para los límites entre escalas.

     Para la definición de los límites entre una escala y  otra  existe una gran diversidad de criterios y en muchos casos se ha utilizado el  volumen  de  los  equipos  como   el   criterio   fundamental, particularmente en lo relacionado con la industria Biotecnológica, aunque en  ese  caso  en  realidad  lo  que  se  trata  es  de  un significado particular del  concepto  de  escalado,  bastante  más restringido que el concepto de escalado adoptado modernamente.

En la industria Biotecnológica resulta de particular significación el incremento paulatino del volumen en el que se  desarrollan  los microorganismos, de forma tal de asegurar un crecimiento adecuado, con las condiciones requeridas de asepsia y  en  un  tiempo  dado. Normalmente este incremento se regula de manera tal que cada nueva etapa se realice con una  carga inicial (inóculo) entre un 5 y  un 10 % del volumen efectivo total del equipo en cuestión y  esto  se efectúa  siempre, con independencia de si el  proceso  es  uno  ya establecido o un proceso en desarrollo.

Este llamado "escalado" de  las  producciones  Biotecnológicas  no tiene realmente nada que ver con el escalado que se estudia en  el presente texto, pero ha sido causa  de  confusión  y  una  de  los motivos por los cuales se utiliza mucho el volumen de los  equipos como criterio de definición entre las etapas de  los  procesos  de I+D.

     También se han utilizado como criterios las relaciones  entre  las dimensiones lineales de los  equipos  (factores  de  escala  geométricos), a partir de consideraciones de criterios de semejanza. En ocasiones se toma como valor aproximado  que  los  factores  de escala geométricos (lineales) deben estar en el rango de 5 a 15.  De  esa forma una columna de 2 m de diámetro puede ser escalada por una de 250 mm, lo que representa un factor de escala de 8.  No obstante, en la práctica no es raro hallar factores tan bajos como 3 o tan altos como 100.

     Una columna de 250 mm normalmente puede ser considerada  demasiado grande para una instalación a escala pequeña , incluso para una planta piloto, a menos que se desee  procesar  una cantidad muy grande de producto y por ello se debe  considerar  un factor de escalado mayor, por ejemplo 13 y considerar entonces una columna de 150 mm, mucho más adecuada y  aún dentro del rango recomendado. Si anteriormente se realizó el trabajo en la escala de banco con una columna de 25 mm de diámetro, los  factores  de escala empleados han sido 6 y 13, o sea se ha ido avanzando de un diámetro de  25 mm a 150 mm y finalmente a 2000 mm.

     Por otra parte, cuando se escalan reactores la tendencia  es  a considerar el factor de escala por el  volumen  y  esto  lleva  en ocasiones  a  considerar  factores  más  elevados  que   el   rango recomendado. Por ejemplo, si una reacción a escala de banco se  ha realizado en un recipiente de l2 L y el tamaño final  del  reactor industrial se estima en unos 11500 L, se puede  pensar  que  serán necesarias dos etapas intermedias, una de 100 L y otra de 1140  L, lo que daría factores de escala de 8, 12 y 10 respectivamente.

     Sin embargo, se puede considerar mejor un valor intermedio de  400 L y en ese caso los factores de escala  obtenidos (33 y 29) aunque superiores al rango recomendado, son  también  aceptables  y  esta opción constituye un buen compromiso, evitando tener que construir dos plantas piloto. Además si se considera la relación  de  escala con respecto a la dimensión lineal en lugar del volumen, lo que es realmente lo recomendado para el escalado, el  cuadro cambia totalmente, ya que:

o sea factores de escala modestos, incluso por  debajo  del  rango recomendado.

 No obstante,  en realidad el mejor criterio de definición de los límites entre las distintas  escalas es la de los objetivos que se persiguen con cada una  de  ellas  y los resultados que se esperan. Con ese criterio más amplio se pueden considerar la realización de etapas, por ejemplo de banco y  piloto,  con  equipos  de  pequeño volumen, normalmente considerados de laboratorio, en los casos  en que el nivel de precisión y automatización sea tan  elevado  y  la necesidad de obtener productos de  muestra  tan  pequeña,  que  se puedan cubrir entonces los objetivos señalados para  esas  etapas, con un considerable ahorro económico (4, 5, 8).

 

1.4.2 Escala de laboratorio.

El laboratorio constituye la unidad primaria de  investigación  en la  que  quedan  determinadas  las   metódicas   de   síntesis   o procesamiento y se establecen las condiciones bajo las  cuales  se obtienen los mejores resultados.

El laboratorio confirma o  rechaza  las  hipótesis  obtenidas  del conocimiento previo  y de la literatura y se  obtienen  datos  que contribuyen  a  enriquecer  la  información   sistematizada,   que constituye la base para el trabajo a escala de  banco  y/o  planta piloto. Además se  obtiene  información para  la  realización   de evaluaciones económicas  preliminares  y  se  determinan  diversas propiedades   físico-químicas,  necesarias   para   los   cálculos ingenieriles  y  la  formulación   y   comprobación   de   modelos matemáticos.

Los  objetivos  Principales  de  esta  etapa  son  la   obtención, recuperación y purificación de los productos de interés, asi  como el análisis y caracterización de los mismos. Además, en el caso de la Síntesis Química se definen  otros objetivos como:

      Conocer la influencia de los variable macroscópicas (composición,  temperatura, pH, etc.) en el rendimiento u  otro  parámetro   que  caracterice  la  eficiencia  del  sistema.

      Optimización  de   la síntesis a ese nivel.

      Conocimiento  de  la  cinética,  incluyendo  la  construcción  de modelos  matemáticos.

      Propiedades  físicas  y químicas  del  nuevo  producto.

      Influencia  de   los   reactivos empleados en  los  cambios  de  escala.

      Caracterización  de  los subproductos y residuales.

      Evaluación económica preliminar.

En el  caso  de  los  procesos  biotecnológicos,  se  tienen  como objetivos  :

      Selección y evaluación de cepas.

      Optimización  del medio  y   de  otras  variables  experimentales  y de proceso.

      Información en cortos plazos de tiempo a muy bajo costo.

 

1.4 3 Escala de banco.

En  esta etapa la investigación comienza a  adquirir  un  carácter tecnológico y posee sus particularidades que la distinguen (6):

      Se orienta a la configuración de las unidades experimentales  con  características  geométricas  y  operacionales  similares  a  los   equipos de   planta   piloto   o   industriales   disponibles   o  recomendables, a diferencia de la etapa de laboratorio, donde  el  equipamiento utilizado difiere considerablemente del industrial.

      Conlleva un mayor nivel de instrumentación  y  automatización   .

      El trabajo experimental se  orienta  hacia  el  completamiento  y  precisión de la informacion de laboratorio.   

      Los estudios de banco  constituyen un paso de gran importancia  y  pueden  contribuir  a  reducir considerablemente los costos de la investigación y obviar, en algunos casos, la necesidad de los trabajos a escala piloto.

Los objetivos principales de esta etapa  son :

1.    Revelar la esencia de los fenómenos que ocurren en los  procesos.

2.    Revelar los pasos controlantes o  críticos  en  las  operaciones.

3.    Verificar hipótesis de modelos matemáticos.

4.    Aportar  información para cálculos y diseños de ingeniería.

Además en el caso de  la  Síntesis  Orgánica, hay  otros  objetivos como:

      Realizar estudios fundamentales de ingeniería  de  procesos  como los fenónemos de superficie, fenómenos reológicos,  equilibrio de  fases, separaciones  complejas,  estudios  de  materiales,   etc.

      Determinar propiedades y características físico-químicas  de  las  sustancias como  la  densidad, viscosidad,  tensión  superficial,  tamaño  de  partículas, porosidad, calor  específico,   etc.

      Conocer  la   Termoquímica (calores de  reacción)  y  Termofísica  (capacidad calorífica de las mezclas,etc).

En el caso de los procesos biotecnológicos se consideran   también los siguientes objetivos:

1.    Selección del procedimiento de desarrollo de inóculos, esterilización del medio, aireación, agitación y operaciones de purificación.

2.    Ajuste de variables como razón de transferencia de oxígeno, evolución de dióxido de carbono, producción de biomasa, biosíntesis de metabolitos y efectos del pH.

3.    Estudio del régimen de alimentación continua o incrementada.

4.    Selección de alternativas de control e instrumentación.

5.    Evaluación económica preliminar y estimado de viabilidad del proceso.

Esta  etapa  permite  un enfoque científico a relativo bajo costo.

 

 1.4.4. Escala piloto.

Los estudios de escala piloto  resultan  de  especial  importancia para el cambio de escala en muchos procesos, pero poseen  un  alto costo y la decisión de su realización debe estar subordinada a  un conjunto de factores  entre  los  cuales  se  destacan:

      Tipo  de proceso

      Nivel de información disponible

      Tamaño propuesto para la unidad industrial

La planta piloto debe montarse y operarse de  manera  que  permita satisfacer al menos uno de los siguientes objetivos principales:

1.    Evaluar la factibilidad de un proceso  tecnológico.

2.    Obtener la información para el diseño de una planta  comercial.

3.    Obtener cantidades de productos con fines de ensayo o promoción.

Además de estos, en el caso de la Síntesis Orgánica se tienen los siguientes objetivos   específicos:

      Obtener   "know-how"   del proceso.

      Corroborar teorías sobre mecanismos  de  los  procesos.

      Obtener informnación  para  el   tratamiento   de   residuales.

      Ensayar materiales de construcción.

      Probar métodos de análisis de procesos y control de  calidad.

      Estudiar  sistemas  para  el  control  de procesos.

      Evaluar nuevos  equipos  y   sistemas   tecnológicos.

      Entrenar al personal.

En  el  caso  de  los  procesos  biotecnológicos,  se  tienen  los siguientes objetivos específicos:

1.    Confirmar los datos  obtenidos  a nivel de banco y verificar los  criterios  de  escalado.

2.    Selecciónar las estrategias de  esterilización del  medio   y  de  concentración  y  purificación  de productos.

3.    Obtener cantidades de productos para pruebas de  caracterización,  toxicológicas,  promoción  de  mercado  y   verificación   de  la  viabilidad del proceso.

4.    Ofrecer una información de validación a  un  costo  relativamente  alto .

 

1.4.5 Escala semi-industrial..

Esta es una etapa cara del proceso de escalado que puede prolongar excesivamente la  introducción  de  una  nueva  tecnología  en  el mercado y sólo se realiza para aquellas tecnologías  de  una  gran complejidad y que representan un salto apreciable en el  nivel  de desarrollo existente (14).

En ocasiones, a las plantas de este  tipo  se  le  han  denominado plantas demostrativas, aunque otros autores prefieren  el  término de plantas prototipo (3,4). Estas plantas  se construyen de  igual forma que una planta de escala completa, pero a una  capacidad  de producción menor, usualmente un décimo de la  proyectada  para  la escala definitiva, que permite el acopio de  experiencias  durante su funcionamiento y sirve de  modelo  a  las  futuras  plantas  in dustriales que se construyan (14).

En la mayoría de las  ocasiones  esta  etapa  del  escalado  puede omitirse, lo que  representa  una  considerable  reducción  en  el periodo de desarrollo de una tecnología.

 

1.4.6 Escala industrial.

Normalmente  esta escala no se considera una parte del proceso  de investigación y desarrollo y esto constituye un  error  conceptual con fuertes implicaciones de índole práctica.

Realmente  la  industria  constituye,  no  sólo  una   prueba   de validación de las experiencias precedentes, sino que enriquece  la información  ingenieril  disponible  y  los  modelos   matemáticos formulados  y  brinda  información   de   gran   valor   para   el perfeccionamiento de equipos y para  la  optimización  del  propio proceso productivo (6).

Además  en la mayoría de los casos las instalaciones a  escala  de banco y/o piloto se diseñan a partir  de  un  "scale-down"  de  la instalación  industrial  existente  o  supuesta,  en  base  a   la experiencia acumulada con la  operación  de  otras industrias. Por todo lo anterior, la escala industrial debe  ser  considerada  una etapa importante en el conjunto de las tareas de I+D.

 

1.5 Concepto de Ingenierización.

El concepto de ingenierización ha comenzado a tomar fuerza en  los últimos años y a menudo se confunde total o  parcialmente  con  el escalado de los procesos productivos (6).

Anteriormente se concebía el trabajo de los  ingenieros  como  una etapa posterior al logro científico, y el trabajo se organizaba de una  manera  secuenciada,  donde  las  distintas  especialidades entran según les llega su turno.  Sin  embargo  esta  manera  de trabajar ha llevado a muchos fracasos y, en el mejor de los casos, provoca un alargamiento del período necesario para la introducción de un logro científico en la práctica social.

Esta  forma  anticuada  de  desarrollar  un  producto  puede   ser ejemplificado de la forma siguiente (12):

 

"Un químico  inventa un nuevo producto químico  o  proceso  en  su laboratorio y lo estudia intensamente en una microescala.  Obtiene una gran cantidad de información  con  estudios  de parámetros  no cuantitativos y como resultado puede obtener varias  patentes  que incrementan su prestigio cientifico, así como el de la institución a la cual pertenece.

La  nueva  invención  se  lleva  al  departamento  de   desarrollo comercial, el cual trabaja para hallar un  mercado  adecuado  para tan  maravilloso  producto  y  para  ello  se  comienza   por   la realización  de  un  análisis  económico.  El  entusiasmo  de  los dirigentes  y  la  utilización  de  los  datos  no   cuantitativos obtenidos por el químico,  hacen  que  los  cálculos  muestren  al producto como un seguro triunfador y eso hace  que  el  entusiasmo aumente más aún.

La presión ejercida sobre el departamento de desarrollo  comercial hace que encuentren el nuevo mercado lo antes posible y  con  ello se confirman las optimistas predicciones del estudio  económico  y el proyecto se pasa  al  departamento  de  desarrollo.  Hasta  ese momento el trabajo se  ha  ido  realizando  en  plazos  de  tiempo inferiores a los del  cronograma  de  trabajo  y  el  ambiente  de optimismo hace pensar que el trabajo del ingeniero  de  desarrollo no puede hacer otra cosa que confirmar los datos del   químico   y del departamento comercial.

Pero desgraciadamente en la inmensa mayoría de los casos  esto  no ocurre así. El ingeniero  realiza  estudios  de  planta  piloto  y siempre encuentra problemas como pueden ser:  peores  rendimientos y selectividades que las predichas, menores tiempos de vida de los catalizadores, problemas con  componentes  trazas  en  la  materia prima, etc.

Después que encuentra un  mínimo  de  dos  o  tres  problemas,  el ingeniero los discute  con  el  químico  y  generalmente  esto  lo disgusta. El químico piensa  que  su  maravillosa  invención  está siendo torpedeada por el ingeniero y las  relaciones  entre  ambos comienzan   a   deteriorarse,   lo   que   dificulta   y    alarga considerablemente el  proceso  de  introducción  del  producto  al mercado, si es que realmente se puede llevar el producto a vías de hecho.

Con ese método de trabajo el químico pudo alcanzar varias patentes y realizar un número  adecuado de publicaciones que acrecienta  su prestigio, los especialista de desarrollo comercial  probaron  sus habilidades en  la  búsqueda  de  nuevos  mercados,  el  ingeniero demostró su habilidad en el trabajo a nivel de planta piloto, pero la institución no logró resarcirse de los gastos realizados  o  en el mejor de los casos,  tuvo una demora considera ble  en  obtener ganancia así como una reducción  apreciable en la magnitud de  las mismas".

El concepto moderno de ingenierización es  totalmente  distinto  a esa forma de trabaja:

La ingenierización  contempla la interacción de los ingenieros  de las distintas  especialidades  (químicos,  bioquímicos, mecánicos, eléctricos,  industriales, etc.) junto con  los  investigadores  de laboratorio (químicos,  bioquímicos,  biólogos,  médicos, físicos, etc.),  desde el inicio mismo del proceso de I+D (6, 12, 13 y 17).

Aquí en lugar de la Ingenieria por etapas o Secuencial del enfoque tradicional se emplea el concepto de Ingeniería concurrente  (17), lo que lleva a  la  utilización  de  equipos  multidisciplinarios, prácticamente desde el inicio del proceso  de  escalado.  Para  la aplicación de  la  Ingenieria  concurrente  se  necesitan  algunos requisitos elementales, como son (15):

1.    Tener facilidades de comunicación  entre  el  colectivo,  que  en  ocasiones resulta bastante numeroso.

2.    Usar técnicas de trabajo en  grupo  y  técnicas  de  solución  de   problemas.

3.    Disponer de locales de trabajo adecuados y servicios de oficina y  de  apoyo  en  general.

4.    Disponer de bases de datos comunes.

Además, a este enfoque de trabajo se oponen muchos  procedimientos establecidos y actitudes, entre las que se destacan (15):

      Departamentalización   estructural

      Sistema de estimulación diseñado para el individuo y no  para  el colectivo.

      Dirigentes   apegados   a  dar  soluciones  simples  a  problemas  complejos.

No obstante estas dificultades  la  Ingeniería  concurrente  y  en general la Ingenierización, ha demostrado su utilidad  práctica  y esta forma de trabajar integrado en grupos multidisciplinarios  ha sido adoptada a nivel mundial, especialmente a partir de la década del 90. (6, 12, 13, 15, 17).

En esta concepción (Figura 1.1), se parte de que en la generalidad de los casos, el surgimiento de un nuevo producto o tecnología  es consecuencia de una demanda social  que impone la necesidad de una respuesta tecnológica y de una demanda de mercado que estimula una respuesta  de  la que se esperan varias ventajas económicas  o  de otra índole, por lo cual la iniciativa para  el  desarrollo  surge generamente  de  instituciones  o  empresas   motivadas   por   la interacción del factor social y del mercado (11).

Este proceso constituye realmente una etapa exploratoria y culmina  con el planteamiento del problema a resolver  por  la  I+D:  la necesidad  de un nuevo producto  o  tecnología  (11).  Después  de planteado el problema viene una etapa preparatoria, en la  cual se precisa mejor la tarea  y  se  toman  como  antecedentes  todo  el conocimiento   anterior   aportado   por   la   bibliografía.   La investigación bibliográfica reporta una información que  debe  ser cuidadosamente analizada  y  ordenada,  de  forma  que  pueda  ser adecuadamente utilizada en  cada  etapa  de  la  investigación.

A partir  de  esa etapa  preliminar, que  puede incluir un trabajo inicial de laboratorio, comienzan  las  etapas  fundamentales del proceso de  desarrollo del nuevo producto o tecnología: las etapas de  Ingenierización,  en   las   cuales   trabaja   un   colectivo multidisciplinario y donde las tareas de ingeniería de proceso  se realizan en paralelo al trabajo de las distintas escalas   (Figura 1.1) (7. 11. 13).

Del trabajo conjunto de investigación  e  ingeniería,  surgen  las variantes iniciales del diseño de planta, que sirven en cada  caso para diseñar y seleccionar adecuadamente el equipo que se usará en la escala siguiente, pudiéndose decidir incluso la eliminación  de algunas de las etapas, si el nivel de información así lo aconseja.

Se  llega de esa forma a la etapa final de diseño y  proyectos  de Ingeniería,  donde se realiza  toda  la  documentación  final  del proyecto (6), la que debe estar compuesta de: 

1.    Diagrama de flujo y Balances de materiales y energía del  proceso  en su conjunto ("Flowsheeting del proceso").

2.    Definición   primaria  de las especificaciones de equipos y otros  elementos  del  sistema tecnológico.

3.    Diseño de ingenieria de procesos y  automática  de  equipamiento.

4.    Diseño de la planta, como un  sistema  integral,  incluyendo  los  servicios con la calidad requerida, protección  del medio  y  del  personal y las buenas prácticas de producción.

5.    Proyecto Ejecutivo de los equipos y otros  elementos  de  fabricación nacional.

6.    Documentación técnica de puesta en marcha y operación.

En esta etapa final participa un  gran  volumen  de  ingenieros  y técnicos los cuales, en su  mayor  parte,  han  tenido  que  estar vinculados al desarrollo de las etapas anteriores del  proceso  de I+D, si se han cumplido adecuadamente  los  procedimientos  de  la ingenierización y ello conlleva  a acortar  los  plazos  de  terminación  mejorar la calidad considerablemente.

Otro elemento que se debe tener en cuenta en esta etapa final,  es la necesidad de aplicar las modernas técnicas de computación que se han desarrollado, como es el caso de  la  Ingeniería  de  Procesos auxiliada por Computadoras (Computer  Aided  Process  Engineering, CAPE) (16), mediante la cual  se  integra  el  "flowsheeting"  del proceso al manejo de los datos y la confección de la documentación de proyectos correspondiente, de forma automatizada  e  integrada, lo que reduce sensiblemente el tiempo de proyección  y  mejora  su calidad.

El empleo de la computación se debe hacer también en el  resto  de las etapas del escalado, siendo un elemento fundamental   para  el registro y evaluación de los datos obtenidos en los experimentos y en el desarrollo y evaluación de los modelos matemáticos,  lo  que ayuda también a reducir el número de experimentos y  de  etapas  a realizar, con la consecuente reducción del periodo de  tiempo  que lleva este proceso.

En la actualidad se dispone   de  experiencias  positivas  con  la utilización de  sistemas  computarizados  para  la  recolección  y procesamiento de datos (SRD), durante  los  procesos  de  escalado (10), las que deben ser tenidas en cuenta en los trabajos  que  se realicen, en dependencia del equipamiento de control  e  instrumentación  medios de computación de que se dispongan.

 

1.6 Ejemplos de aplicaciones del escalado en la vida cotidiana.

     Por todo lo antes expuesto se puede pensar que el escalado se relaciona solamente con los procesos industriales, lo cual no es cierto, ya que en la vida cotidiana se debe hacer uso de estos conceptos, aunque en la mayoría de los casos es probable que se haga de forma intuitiva o incluso incorrecta. Un ejemplo de su aplicación en una actividad cotidiana está en la cocina. Si se revisa un libro típico de esta especialidad como es  "Cocina al Minuto", de Nitza Villapol (Editorial Oriente, Santiago de Cuba, 1988), se puede encontrar (página 28):

     " Se aconseja no duplicar o triplicar una receta la primera vez que usted la pruebe.  La cocina, en cantidades mayores requiere ligeras modificaciones de condimentos y tiempo de cocción, además de condiciones apropiadas en cuanto a utensilios y refrigeración. La mayoría de las recetas que aparecen en este libro han sido calculads para condiciones domésticas".

     En ese párrafo está claro la referencia a los problemas de escalado relacionados principalmente con el aumento de volumen (cocina doméstica vs. cocina a gran escala, por ejemplo en un comedor de gran capacidad), aunque también hay referencia a los problemas del segundo tipo en lo relacinado con las modificaciones de condimentos y tiempo de cocción.

     También puede leerse, en esa misma página: "Para reducir una receta a la mitad use exactamente el 50% de todos los ingredientes....... Para duplicar la receta use exactamente el doble de todos los ingredientes.... Para hacer la mitad de las recetas de pasteles, cakes, etcétera, deben seleccionarse moldes más pequeños en proporción a esa cantidad, para que el tiempo y la temperataura de horneo sean similares. Si se usa el mismo tamaño del molde para la mitad de la receta, el tiempo de horneo será aproximadamente la mitad, pero eso no siempre es recomendable, ni asegura los mejores resultados. Lo mejor es utilizar moldes más chicos".

     "Para duplicar la receta.... si se trata de cakes o panetelas deberá usarse, para más seguridad, doe moldes del tamaño que indica la receta, pero si se desea podrá usarse uno que tenga el doble de capacidad, cuidando el tiempo de horneo, que será entonces mayor y muy variable de acuerdo con las condiciones del medio".

     ¿Puede Vd. explicar cuáles son las variaciones que se producen en el horneo durante el escalado (ascendente o descendente) que hacen necesario variar el tiempo de horneo?.

1.7 Situación del escalado en Cuba.

El insuficiente desarrollo de los procesos de escalado  constituye una de las  dificultades  que  se  presentan  en  las  condiciones actuales de Cuba, al tratar de avaluar técnica  y  económicamente los  resultados  científicos  (1).  El   no   dominio   de   estos procedimientos ha sido la causa de no pocos intentos fallidos y de procesos industriales deficientes (6, 15).

Los  ejemplos  de  este  sentido  son  abundantes  y  es   posible ejemplificarlos  con las dificultades  que  han  existido  con  el desarrollo del proceso industrial  de fermentación del  bagazo  en estado sólido para la producción de alimento  animal  (sacharina), el cual  no  ha  podido  cumplir  con  las  expectativas  que  los elevados contenidos de proteína obtenidos en las pruebas a pequeña escala, hicieron surgir.

Esta situación hizo necesario que en 1991  el  Consejo  Científico Superior de la Academia de Ciencias de Cuba (A.C.C.) analizara  un estudio realizado al efecto  por  una  Comisión  temporal  de  ese Consejo (1)  y  que  se  realizara  un  estudio  similar  para  su discusión en el Polo  Científico  del  Oeste  en  1992  (6).  Como resultado de esos  análisis  se  adoptaron  un  grupo  de  medidas encaminadas a revertir esta situación, entre las que se destaca la organización de  eventos  científicos  internacionales  sobre  esa temática, llevados a cabo con éxito en l992, 1993  y 1995.

Otras recomendaciones se refieren al papel  que  deben  jugar  los Centros de Educación Superior del país en  la  profundización  del trabajo sobre escalado e ingenierización y en ese sentido destacan las palabras del Ministro  de  Educación  Superior,  Dr.  Fernando Vecino Alegret, el cual planteó, en su intervención del 2 de  mayo de l993, en el Seminario de Perfeccionamiento para  dirigentes  de la Educación Superior: 

  "Una   insuficiente   infraestructura   tecnológica,  un   pobre    desarrollo  de  los  procesos  de  escalado  y  la insuficiente    evaluación económica, son barreras aún presentes  para alcanzar    resultados que reporten  verdaderos  beneficios  económicos   y    sociales, a partir de la investigación científica.

   En la  solución  de  este  problema,  las universidades  pueden    hacer una importante contribución al  país, razón  por  lo  que    hemos incluído entre nuestros objetivos principales trabajar en    el escalado e ingenierización de procesos para el desarrollo de    aquellas  tecnologías  vinculadas con  resultados   científicos    obtenidos por los  Centros  de Educación Superior o  por  otras    instituciones del país".


CAPITULO  2                

"Técnicas a emplear en el proceso de Escalado".         

2.1 EL PRINCIPIO DE SEMEJANZA                    

 

2.1.1 Modelos y prototipos

     Para cumplir con el  objetivo  del  escalado,  o  sea  obtener  un procedimiento industrial exitoso, se necesita aplicar un  conjunto de técnicas, metodologías y procedimientos que permitan transferir a  la  escala industrial, los  datos obtenidos en los experimentos a escala reducida.

     Lo ideal sería que este estudio  se  pudiera  realizar  de  manera teórica, sin  necesidad   de  experimentos,  aplicando  las  leyes generales de la física y la química y resolviendo las  ecuaciones, por  lo  común  diferenciales,  que  describen  por  completo  los procesos.

     En la práctica ésto sólo es posible en muy contados casos, ya  que si  bien  en  muchas   ocasiones   se  conocen   las   ecuaciones diferenciales que describen los procesos de interés, en la mayoría de ellas no es posible realizar su  integración  y   por  ello  no queda otra vía que recurrir a la  investigación  experimental,  es decir a los ensayos y pruebas.

      A su vez,  en la mayoría de los casos resulta difícil  y  costoso, cuando no imposible,  experimentar directamente con  los  procesos de interés y no queda otra alternativa que recurrir al  empleo  de modelos que permitan reproducir, en los laboratorios, los procesos que se quieren estudiar.

     El empleo de los modelos hace necesario la aplicación de la Teoría de los Modelos y para ello es fundamental tener en cuenta  que  en la misma se utilizan un grupo  de  términos  que  o  bien  no  son utilizados normalmente o lo que es peor aún, se  utilizan  con  un sentido diferente al que se les da en esta Teoría (Apéndice 1).

     De todos esos conceptos, los primarios resultan los  de  modelo  y prototipo, los cuales se definen de la forma siguiente:

"Un modelo es un dispositivo o medio que  está  concebido  de  tal manera que puede ser usado para  predecir  el  rendimiento  de  un prototipo. El prototipo, a su vez, es el sistema físico  a  escala completa, que va a ser modelado (8).

     El prototipo no tiene  necesariamente  que  existir  materialmente antes que su modelo. Lo determinante en el trabajo con  modelos  y prototipos es la relación que existe entre  el  comportamiento  de las unidades de pequeña y gran escala, con independencia  de  cual de ellas exista primero en el tiempo.

     Lo que sí resulta indispensable, cuando se concibe el modelo de un prototipo  aún inexistente, es que esa concepción se haga teniendo en mente el tipo y forma de  la  unidad  a  gran   escala  que  se pretende obtener (3), para lo cual  se  utilizará  la  información  obtenida  antes de comenzar las etapas de escalado (2).

     Esta consideración hace  que  en   la  mayoría  de  los  casos  el escalado de un producto o proceso desde el  nivel  de  laboratorio hasta el nivel industrial (scale-up), sea realmente precedido  por el proceso de escalado desde el equipo industrial  supuesto  hasta el laboratorio  (scale-down),  lo  que  demuestra  que  estos  dos procesos no son más que etapas de un único e integral  proceso  de escalado.

     Para la realización de ese proceso  se  utilizan  fundamentalmente los métodos basados en el Principio de Semejanza y  la  Modelación Matemática, o una combinación de  ambos  (1,11),  aunque  en  este texto  se  tratará  especialmente   el  método  del  Principio  de Semejanza, de manera tal que con la metodología empleada se puedan conocer los casos en que se necesite  el apoyo  de  la  Modelación Matemática.

     El Principio de Semejanza se aplica a los sistemas en  los  cuales se emplean modelos homólogos, o sea aquellos modelos que  sólo  se diferencian del prototipo en el tamaño  o  escala.  La  modelación matemática  se  aplica  tanto  a  modelos  homólogos  como  a  los analógicos, ya sea como método único de escalado en los  casos  en que existe suficiente información para ello, o  en  unión  con  el Principio de Semejanza, en la mayoría de los casos.

2.1.2 El Principio de  Semejanza.

          El Principio de Semejanza tiene que ver con las  relaciones  entre sistemas físicos de  tamaños  diferentes  y  es  por  consiguiente fundamental para la ampliación y  disminución  de  escala  en  los procesos físicos y químicos. Este principio  fué   enunciado   por primera vez por Newton, para sistemas  compuestos  por  partículas sólidas  en  movimiento  y  sus  primeras  aplicaciones  prácticas fueron en los sistemas fluídos, campo en el cual  ha  probado  ser particularmente útil  (3,4,9).

     Muchos científicos relevantes tomaron parte en el desarrollo de la Teoría de los Modelos, formulando el principio de semejanza y  sus consecuencias  con  un  alto  grado  de   rigurosidad   (3).   Las aplicaciones  iniciales   de   este   principio   fueron   en   la construcción  naval y posteriormente se extendieron a otros campos

de la ingeniería mecánica y civil y a la aeronáutica.

     En el campo de la Ingeniería Química, las  aplicaciones  prácticas iniciales se  dirigieron  a  la  correlación  del  rendimiento  de mezcladores  de   propelas,   paletas   y   turbinas,   semejantes geométrìcamente y se extendieron posteriormente a otros campos más complejos hasta llegar al desarrollo y aplicación de la  semejanza química para el escalado de los reactores químicos (12, 16, 17).

     Para la aplicación del principio (3), se parte de  considerar  que los objetos materiales y  los  sistemas  físicos  en  general,  se caracterizan por tres cualidades: tamaño, forma y composición, las cuales son variables independientes. Esto  quiere  decir  que  dos objetos pueden diferir en  tamaño  teniendo  la  misma  composìción

química  y  forma  o  pueden  ser  iguales  en  forma  pero  tener diferentes tamaños y estar compuestos de materiales diferentes.

     El  Principio  de  Semejanza  está  especialmente  ligado  con  el concepto general de forma,  aplicado  a  sistemas  complejos,  que incluye no solamente las proporciones geométricas de sus  miembros sólidos y superficies, sino también factores como los patrones  de flujo  de  fluídos,  gradientes  de  temperaturas,   perfiles   de concentración, etc.

    En términos más precisos se define  que:

     El  Principio  de  Semejanza  establece   que   la   configuración espacial y  temporal  de  un  sistema  físico,  se  determina  por relaciones de magnitud dentro  del  sistema  mismo  y  no  depende del tamaño del sistema  ni  de  las  unidades  de  medida  en  las cuales se miden esas magnitudes.

     Estas relaciones de magnitud pueden ser  medidas  de   dos  formas diferentes:  especificando  las  proporciones  entre    diferentes mediciones en el mismo cuerpo (proporciones intrínsecas o factores de forma) o comparando  mediciones  correspondientes   en  cuerpos diferentes (relaciones o factores de escala).     

      En el primer caso se requieren valores  de  un  cierto  número  de factores de forma para poder definir la configuración de un objeto y por lo tanto su semejanza con otro, mientras que en  el  segundo basta un único y constante  factor  de  escala  para  definir  esa semejanza.

     Como ejemplo de lo  anterior tenemos que la forma geométrica de un cuerpo se determina por sus  proporciones  intrínsecas:  (relación altura/ancho, relación ancho/espesor de la pared, etc.)  por  ello dos cuerpos serán semejantes geometricamente, cuando esos factores  de forma son iguales entre ambos. A su vez cuando se comparan  dos cuerpos  geométricamente  semejantes,  las  relaciones  entre  sus respectivas  alturas,  anchos  y  espesores   son   constantes   y constituyen el llamado factor de escala.

      Por esa razón la semejanza geométrica se define mejor en  términos de correspondencia y su factor de escala. Sin embargo  cuando  las comparaciones son hechas con otras variables como la velocidad, la fuerza  o  la  temperatura,  la  semejanza  se  define  mejor  con relaciones intrínsecas para cada sistema, los que constituyen  los grupos adimensionales, tan conocidos por los ingenieros. Por tanto, cuando se dice que dos sistemas son semejantes es necesario, además, especificar cuáles son las configuraciones internas de los mismos que se comparan (geométricas, cinemáticas, térnicas, etc).

     Con estas definiciones básicas, se está en condiciones de estudiar más detalladamente el  Principio  de  Semejanza  y  para  ello  se considerararán los cuatro tipos de semejanza  más  importantes  en las aplicaciones de Ingeniería Química y Bioquímica (8):

 

1- Semejanza geométrica (dimensiones     

         proporcionales)

2- Semejanza mecánica:

    a-  Semejanza estática (deformaciones

         proporcionales)

    b-  Semejanza cinemática   (tiempos

         proporcionales )

    c-  Semejanza dinámica     (fuerzas

         proporcionales)

3- Semejanza térmica (temperaturas

          proporcionales)

4- Semejanza química (concentraciones

          proporcionales)

 

     Hay que tener en cuenta  que si bien estrictamente hablando,  cada una de esas semejanzas requiere  del cumplimiento  de  todas  las anteriores a ella, es muy difícil lograr eso en la práctica y  por ello en muchas ocasiones es necesario  aceptar  una  aproximación, por ejemplo, a la semejanza química, con sustanciales divergencias en la semejanza mecánica.

     También hay que considerar que todos los  casos  de  Semejanza  de hecho contienen un elemento de aproximación, debido a factores  de distorsión que estrán siempre presentes y que impiden  que  en  la

realidad se pueda obtener una semejanza ideal.  Por  ejemplo,  dos conductos para fluidos pueden  ser  diseñados  y  construídos  con dimensiones  geométricamente   semejantes,  pero  es  virtualmente imposible hacer también  semejante  geométricamente  la  rugosidad superficial, y esas diferencias  pueden  tener  alguna  influencia 

sobre los patrones de flujo en ambos conductos.

     Sin embargo, a menudo esas desviaciones de la semejanza ideal  son despreciables y  la aproximación obtenida  es totalmente válida  a los efectos prácticos. En los casos en que no se  logre  ésto,  se tienen que considerar los llamados efectos de escala e  introducir correcciones de alguna clase. a la hora de realizar los  escalados ascendentes o descendentes.

     En estas  discusiones  sobre  semejanza,  es  necesario  referirse frecuentemente a cantidades correspondientes y sus  relaciones  en sistemas semajantes. En esos casos en el  numerador  se  colocarán siempre las magnitudes referidas al prototipo y  se  diferenciarán de las del modelo por un apóstrofe.  Las  relaciones  entre  ambas cantidades correspondientes se expresarán empleando caracteres  en negrita, lo que  resulta  una  forma  conveniente  y  compacta  de representar las relaciones de escala.

 

Semejanza geométrica.

     La  semejanza  geométrica  se  define   mejor   en   términos   de correspondencia y por  tanto  por  el  factor  de  escala  L,  qurelaciona las distintas dimensiones lineales de un sistema con las  del otro y que se pueden ejemplificar de la forma siguiente:

     Consideremos dos cuerpos (Figura 2.1) cada uno de los cuales  está provisto de  tres  ejes  imaginarios  que  se  intersectan  en  el espacio, de forma tal que cada punto de los  cuerpos  es  descrito por tres coordenadas y tomemos  un  punto  P'  dentro  del  primer cuerpo (el mayor) cuyas coordenadas son X', Y', Z', y un  punto  P dentro del segundo cuerpo (el menor), cuyas coordenadas son X.  Y, Z.

     Si  se  cumple   que   ambos   están relacionados por la ecuación:

donde la relación o factor de escala lineal  L  es  constante,  se puede decir entonces que esos dos puntos y todos los  otros  pares de  puntos  cuyas  coordenadas   espaciales   estén   similarmente relacionadas en términos de L, son puntos correspondientes.

    Se define entonces que dos cuerpos son geométricamente  semejantes cuando para cada punto en uno de  ellos  existe al menos un  punto corrrespondiente en el otro.

    El concepto de semejanza  geométrica se ilustra en la figura  2.1,  donde x - x', y - y' y z -z'. son coordenadas correspondientes,  P y P' puntos correspondientes y L y L' longitudes correspondientes.

Figura 2.1 Semejanza geométrica (Tomado de Johnstone y Thring, 1957).

    Es posible que cada punto del cuerpo a menor escala tenga  más  de un punto correspondiente en el  segundo.  Esto  ocurre  cuando  el segundo cuerpo está compuesto de múltiples elementos cada  uno  de los cuales es geométricamente similar al primer cuerpo.  Este   es el  caso,  por  ejemplo,  de   un   panal   de   miel,   el   cual es geométricamente similar a una célula dodecaédrica única.

     Además, no es necesario  que las relaciones  de  escala  sean  las mismas a lo largo de cada eje y por ello  se  puede  plantear  una relación más general, a través de las ecuaciones:

donde  X,  Y,  y  Z,  son  relaciones  de  escala   constantes, no necesariamente  iguales  entre  sí.  En  los  casos  en  que   las relaciones de escala son diferentes en las distintas  direcciones, se considera que se tiene una semejanza distorsionada.

     Las aplicaciones de esos conceptos geométricos  a las  plantas  de procesos sugieren diferentes tipos de aparatos  a  pequeña  escala que podían ser considerados semejantes  a  los  aparatos  de  gran escala. Por conveniencia se ha convenido que los aparatos  a  gran escala se denominen  prototipos,con independencia  de  si  existen primero o después que el aparato de pequeña escala,  mientras  que una réplica semejante geométricamente de un prototipo completo  se denomina modelo, si las relaciones de escala son iguales en  todas

las direcciones o modelo distorsionado si las relaciones de escala son diferentes en algunas de las direcciones.

     Cuando el prototipo tiene una estructura múltiple,  compuesta  por elementos  sustancialmente  idénticos,  como   por   ejemplo,   un intercambiador de calor tubular, una  torre  empacada,  un  filtro prensa o un reactor catalítico, el aparato a pequeña escala  puede ser un elemento, o sea una réplica a escala completa de una o  más

células completas o unidades componentes del prototipo. También el aparato a pequeña escala puede ser un elemento modelo,  o  sea  un modelo a escala de  un  elemento  del  prototipo  completo  y  ese elemento modelo puede ser además un  elemento modelo distorsionado.

     Todas esas relaciones geométricas se ilustran en la figura 2.2, en la que se muestra también la relación de sección B , la cual es la relación entre el área de la sección transversal del prototipo con relación a la del elemento o del  respectivo   número  de  células unitarias o componentes. Los modelos son definidos a través de  la relación de escala L y los elementos modelos tienen a la  vez  una relación de sección B  y una o más relaciones de escala.

     El concepto de elemento  es  útil  solamente  cuando  los  efectos provocados por las paredes del recipiente pueden ser  ignorados  o controlados  independientemente,  como  es el caso de  un  reactor catalítico,  donde   la   superficie   frontera   es   normalmente despreciable comparada con la superficie interior.

     También  puede  ser   permisible,   en   ciertas   circunstancias, considerar un recipiente vacío como un  elemento  de  uno  grande, cuando,  por  ejemplo,  el  recipiente   pequeño   es   controlado térmicamente  con  un  enchaquetado  adiabático. Lo fundamental en un elemento es que bajo idénticas condiciones  debe producir el mismo grado de cambio que produce el  prototipo,  pero en una menor cantidad de materia.

     Por   ejemplo   una   torre   empacada   es   posible    dividirla verticalmente en elementos, cada uno de los cuales tiene la  misma altura de cama que el prototipo, pero si se divide horizontalmente o se reduce en altura,  las  partes  se  convierten  en  elementos diferenciales los cuales no son susceptibles de  ser tratados  con los conceptos de semejanza. De igual forma, una sola fila de tubos puede considerarse como un elemento de un condensador vertical (Figura 2.3) (Johnstone y Thring, 1957).

Semejanza mecánica.

     Esta semejanza puede ser considerada una extensión del concepto de semejanza geométrica a los sistemas estacionarios o en movimiento, bajo la influencia  de  fuerzas.  Según  el  tipo  de  sistemas  y de fuerzas, esta  semejanza  puede  ser  estática,  cinemática   o dinámica.

Figura 2.2 Tipos de semejanza geométrica (Tomado de Johnstone y Thring, 1957).

Semejanza estática.

     La semejanza estática se  relaciona  con  los  cuerpos  sólidos  o estructuras sometidos a tensiones constantes.  Todos  los  cuerpos sólidos se deforman bajo tensión y como resultado de ello, ciertas partes llegan a ser  desplazadas  de  la  posición  que   ocupaban cuando no estaban sometidas a tensión.

Figura 2.3 Una fila de tubos en un condensador vertical, como ejemplo de elemento (De Johnstone y Thjring, 1957)

          Con esa base  la  semejanza estática se define como:

      Dos   cuerpos   geométricamente    semejantes    son    semejantes estáticamente cuando ante  tensiones constantes, sus deformaciones relativas son tales que permanecen geométricamente semejantes.

     En ese caso la relación de  los  desplazamientos  correspondientes serán iguales a la relación de escala lineal y  los  esfuerzos  en puntos correspondientes serán también  iguales.

     Cuando el modelo tiene una semejanza geométrica distorsionada, las relaciones requeridas  de  las  formas  correspondientes  para  la semejanza   estática    serán   diferentes   en   las   diferentes direcciones. Esto ocurre también cuando uno o  ambos  cuerpos  son anisotrópicos  y  tienen  diferentes  módulos  elásticos  en   las diferentes direcciones.

     La semejanza  estática  es  principalmente  de  interés  para  los ingenieros mecánicos y de estructuras, los cuales emplean  modelos para  predecir  las  deformaciones  elásticas   o   plásticas   de miembros tensionados o de estructuras de formas complejas.

 

Semejanza cinemática.

     La semejanza  cinemática  se  relaciona  con  sólidos  o  sistemas fluidos en  movimiento,  lo  que  añade  a  las  tres  coordenadas espaciales, la dimensión adicional del tiempo.

    Los  tiempos  se  miden  partiendo  de  un  cero  arbitrario  para cada sistema y se definen los tiempos  correspondientes  como  los tiempos tales en los cuales  t'/t  =  t  constante,  siendo  t  la relación de escala de tiempo. A su vez la diferencia  entre  pares de   tiempos   correspondientes    se     denominan     intervalos correspondientes y las partículas  semejantes geométricamente  que se   centran   sobre   puntos    correspondientes    en    tiempos correspondientes se denominan  partículas correspondientes.

     La semejanza cinemática se define entonces como:

Los  sistemas  en  movimiento   semejantes   geométricamente   son cinemáticamente  semejantes, cuando  partículas   correspondientes trazan trayectorias semejantes geométricamente, en  intervalos  de tiempo correspondientes.

    El concepto de semejanza cinemática se ilustra en la figura 2.4. Si la relación de escala de tiempo t es mayor que  la  unidad,  el prototipo realizará   movimientos  más  lentos  que  el  modelo  y viceversa. El concepto de relación de escala de  tiempo  es  menos familiar que el de relación de escala  lineal  y  por  ello,  para propósitos de ingeniería es más conveniente calcular  en  términos de velocidades correspondientes, las cuales son las velocidades de las partículas correspondientes en tiempos correspondientes.

    En  el  caso  de  la  semejanza  geométrica   distorsionada,   las relaciones de las velocidades correspondientes serán diferentes en las diferentes direcciones.

    La semejanza cinemática es un estado de  particular  interés  para los ingenieros químicos, porque si dos  sistemas  de  fluidos  son geométricamente semejantes, entonces los patrones de flujo también lo  serán  y  las  variaciones  con  respecto  al  tiempo  de  las transferencia de calor y masa en los dos sistemas, conformarán una relación simple entre sí.

 

Figura 2.4 Semejanza cinemática (De Johnstone y Thring, 1957).

     La semejanza cinemática en los fluidos lleva consigo a la  vez  la semejanza geométrica de los  sistemas  de  torbellinos  y  de  las películas  límites  laminares y por  consiguiente,  si  L  es   la relación de escala lineal. los  coeficientes  de  tranferencia  de calor y masa en el prototipo serán 1/L veces los  del  modelo,  lo que permite calcular fácilmente la cantidad total de calor o  masa transferido.

     En sistemas fluidos tales como chorros líquidos en gases  u  ondas superficiales en vórtices, se pueden observar y medir  normalmente los patrones de flujo, lo que no ocurre en  sistemas  cerrados  de una sola fase. Sin embargo, queda el recurso de medir la velocidad en cualquier punto mediante el empleo de un tubo  de  Pitot  y  la indicación de la relación de velocidades en diferentes  puntos  es una indicación del patrón de flujo.

     Para el flujo de fluidos en un  tubo  lleno  o  en  un  recipiente cilíndrico, la relación de  la  velocidad  media  a  la  velocidad máxima v/vm,  resulta un parámetro conveniente. La velocidad media (v), se obtiene dividiendo el área de la sección transversal de la trayectoria del fluido entre la descarga volumétrica por segundo y la velocidad máxima vm, se mide con un tubo Pitot en  el  eje  del tubo o cilindro. Para que haya semejanza cinemática,  la  relación v/vm debe ser constante.

     La figura 2.5 muestra como  varía  la  relación  v/vm  para  flujo continuo en tuberías rectas, graficada contra  la  relación  v/vc, conocida como velocidad reducida. En la región laminar (v/vc < 1 ) y de  nuevo  a  altas  velocidades,  v/vm  es  constante   o  casi constante, pero inmediatamenmte por encima  de  la  región  de  la velocidad crítica, varía marcadamente con la velocidad.

     Esta figura resulta válida  también  para  tuberías  en  forma  de serpentín y recipientes cilíndricos, siempre y cuando se emplee la velocidad reducida en lugar de la velocidad real, a pesar  de  que los valores de la velocidad crítica serán diferentes.

 

Figura 2.5 Variación de la relación V/Vm en una tubería recta (De Johnstone y Thring, 1957).

     Esta figura ilustra la importante conclusión de que a  velocidades de flujo muy altas o muy bajas los sistemas de  flujo  de  fluidos monofásicos  que  son  geométricamente  semejantes,   pueden   ser tratados como semejantes cinemáticamente, con independencia de  la variación de la velocidad del flujo.

 

Semejanza dinámica.

     La semejanza dinámica se relaciona con las fuerzas que aceleran  o retardan masas en movimientos en sistemas dinámicos.  Las  fuerzas de una misma clase (gravitacional, centrífuga,  etc.)  que  actúan sobre  partículas correspondientes en tiempos correspondientes, se denominan fuerzas correspondientes.

     Los  sistemas en  movimiento   geométricamen-te   semejantes   son dinámicamente semejantes cuando las  relaciones  entre  todas  las fuerzas correspondientes son iguales.

     En  los  sistemas  fluidos  o  en  los  sistemas  compuestos   por partículas   sólidas   discretas,    la    semejanza    cinemática necesariamente conlleva  la  semejanza  dinámica,  puesto  que  el movimiento del sistema es función de  las  fuerzas  aplicadas  al mismo. Sin embargo en máquinas o mecanismos en   movimiento  cuyas partes están obligadas a seguir  trayectorias  fijas,  es  posible tener semejanza cinemática sin ninguna relación fijada de  fuerzas aplicadas. En una máquina, sólo algunas de las fuerzas sirven para acelerar las masas en  movimiento,  mientras  que  otras  producen tensiones  estáticas  en  los  miembros  restringidos,  provocando resistencia friccional que se disipa como calor.

     Por  ende  los  paralelogramos  o  polígonos   de   fuerzas   para partículas  correspondientes serán  geométricamente semejantes  y, como una consecuencia  adicional,  las  relaciones  de  diferentes fuerzas en el mismo sistema, serán también constantes.

       Estas relaciones son las proporciones o relaciones intrínsecas que determinan la "forma" dinámica de un sistema  de  la  misma  manera  que  las relaciones entre las  dimensiones  lineales  determinan  la  forma geométrica. En los sistemas  fluidos las  fuerzas principales  que actúan son las de presión, inerciales, gravitacionales, viscosas e interfaciales  y   por  consiguiente,  las  relaciones  entre  las magnitudes de esas fuerzas en puntos correspondientes,  expresadas como grupos adimensionales, constituyen los criterios de semejanza dinámica.

     Para los llamados sistemas homólogos, o sea los sistemas dinámicos semejantes geométricamente en los cuales las propiedades físicas y químicas de los componentes materiales son  iguales,  generalmente no es posible establecer más de dos relaciones entre tres tipos de fuerzas, iguales en ambos sistemas. Cuando  los  sistemas  no  son homólogos, o sea  cuando  los  materiales  empleados  en  los  dos sistemas son  de  diferentes  propiedades  físicas,  llega  a  ser posible mantener tres relaciones constantes,  involucrando  cuatro tipos diferentes de fuerzas.

     Cuando   el   comportamiento   de   un   sistema    es    influído significativamente  por  fuerzas  de  más  de  cuatro  tipos,   la semejanza dinámica sólo puede establecerse  en  unos  pocos  casos especiales, posiblemente con la ayuda de la distorsión geométrica.

     En los sistemas de flujo de fluidos, la semejanza dinámica  es  de importancia directa cuando se desean predecir caídas de presión  o consumos de potencia. En el caso de  la transferencia de  calor  y masa  o  en   las   reacciones   químicas,   su   importancia   es principalmente  indirecta,  como  una  vía  para   establecer   la semejanza cinemática.

 

Semejanza térmica.

     La semejanza térmica tiene que ver con los sistemas en los  cuales hay  un  flujo  de  calor, por lo que introduce la  dimensión   de temperatura, además de las dimensiones de longitud, masa y tiempo.

     El calor puede fluir de un punto a otro por radiación, convección, conducción y movimiento global de materia mediante la acción de un gradiente de presión. Para los primeros tres procesos se  requiere un  gradiente de diferencias de temperatura  y  por  ello,  si  se mantienen las otras condiciones iguales, la variación con respecto al tiempo del flujo  de  calor  entre  dos  puntos  varía  con  la diferencia de temperatura entre ellos.

     El cuarto proceso de transferencia de calor, el movimiento  global de la materia, depende a su vez de la forma de  movimiento  o  del patrón de  flujo  del  sistema  y  por  consiguiente  en  sistemas térmicos en  movimiento,  la  semejanza  térmica  requiere  de  la semejanza cinemática.

     Antes de definir la semejanza  térmica,  se  necesita  definir  la diferencia de temperatura  correspondiente,  la  cual  es  aquella diferencia de temperatura en tiempos correspondientes entre un par de puntos dados en un sistema y el par de puntos  correspondientes del otro sistema.

     La semejanza térmica se define entonces planteando que:

Dos  sistemas   geométricamente    semejantes   son   térmicamente semejantes cuando la relación entre las diferencias de temperatura correspondientes es constante y cuando los sistemas, si  están  en movimiento, son cinemáticamente semejantes.

     En los sistemas  semejantes  térmicamente,  los  patrones  de  las distribuciones  de  temperaturas formados  por   las   superficies isotérmicas  en  tiempos    correspondientes, son  geométricamente semejantes. La relación  de las  diferencias  correspondientes  de temperaturas  puede  ser  llamada  la  "relación  de   escala   de temperatura" y cuando esta relación es igual   a  la  unidad,  las temperaturas en puntos correspondientes son iguales o difieren una de otra en un número fijo de grados.

     La  semejanza  térmica  requiere  que  las   razones   de   cambio correspondientes  de los flujos  de calor mantengan  una  relación constante entre sí.

 Semejanza química.

     La semejanza química se relaciona  con  sistemas  en  los  que  se desarrollan reacciones químicas y en  los  cuales  la  composición varía de un punto  a  otro  y,  en  los  procesos  discontinuos  o cíclicos de un instante a otro.      Para esta semejanza no se requiere introducir nuevas  dimensiones, pero hay uno o más parámetros de concentración, en dependencia del número  de  compuestos  químicos  variables  independientes,   con respecto a los cuales se establece la semajanza. No  es  necesario tampoco que la composición química en  los  dos  sistemas  sea  la misma,  aunque  debe  existir  una   relación   fija   entre   las concentraciones puntuales de los compuestos que son comparados.

     Cuando un sistema contiene un componente variable  B  y  se  desea establecer  semejanza  con  respecto  a  un  componente  A,  ambas sustancias se denominarán componentes correspondientes.     La concentración de un componente químico dado en un  elemento  de volumen en un tiempo dado, depende de la   concentración  inicial,

la razón mediante la cual el componente es  generado  o  destruído por la acción química, la  razón  por  la  que  se  difunde  hacia adentro o hacia afuera del elemento de volumen y la razón  por  la cual es transportado por movimiento global del material.

     A su vez, la variación  con  respecto  al  tiempo   de  la  acción química depende  de la temperatura,  la  razón  de  cambio  de  la difusión depende del gradiente de concentración  y   la  razón  de cambio  del transporte global depende de la trayectoria del flujo.

     Por  consiguiente  la  semejanza  química  necesita  tanto  de  la semejanza  térmica  como  de  la  cinemática  y  depende  de   las diferencias  de  concentración  más  que  de  las  concentraciones absolutas.

     Se definen las diferencias de concentración correpondientes,  como la diferencia de concentración en tiempos correspondientes,  entre un par  de  puntos  dados  de  un  sistema  y  el  par  de  puntos correspondientes del otro sistema.  Con  esa  base  se  define  la semejanza química:

     Sistemas  semejantes  geométrica  y  térmicamente  son  semejantes químicamente   cuando   las   diferencias    de    concentraciones correspondientes mantienen  una  razón  constante  entre  ellas  y cuando   dichos   sistemas,   si   están   en   movimiento,    son cinemáticamente semejantes.

     En los sistemas semejantes químicamente se  puede  considerar  que los  patrones formados  por   las   superficies   de   composición constante  en  tiempos  correspondientes,    son   geométricamente semejantes. La relación  de  las  diferencias  de  concentraciones corrrespondientes se pueden  llamar  la  "relación  de  escala  de concentraciones" y cuando ese valor es  igual  a  la  unidad,  las concentraciones  en  puntos  correspondientes   o  son  iguales  o difieren en una cantidad constante.

     En la práctica los reactores químicos de escala  piloto  son  casi siempre   operados  en  iguales  condiciones  de   temperatura   y concentración  que  el  prototipo   y  la  relación  de  semejanza reclamada  es la de  iguales  temperaturas  y  concentraciones  de productos en puntos y tiempos correspondientes, lo cual es un caso especial de la definición general dada más arriba.

     Además, la variación  con  respecto  al  tiempo  de  una  reacción química puede en teoría ser variada independientemente,  cambiando la temperatura. En la práctica, sin embargo, tanto  el  equilibrio químico como las razones de cambio  relativas  de  las  reacciones colaterales indeseadas varían con la temperatura y hay normalmente un rango  estrecho de temperaturas dentro  del  cual  la  reacción  puede proceder par asegurar el máximo  rendimiento,  tanto  en  la pequeña como en la gran escala.

     Tanto en el modelo como en el prototipo,  el  tiempo  de  reacción será del mismo orden y este  requerimiento  fija  las  velocidades relativas en sistemas de  flujo  continuo.  Esas  velocidades  son incompatibles  con  las  velocidades  necesarias  para   semejanza cinemática, exepto a velocidades mmuy altas o muy bajas,  como  se pudo apreciar en la figura 2.4.

     Por consiguiente, escalando ascedentemente  una  reacción  química continua, y especialmente cuando hay un tiempo óptimo de reacción, después del cual   el  rendimiento  o  la  calidad  se  reduce,  es ventajoso operar tanto el prototipo como el modelo en  la  región laminar o con un alto grado de turbulencia.  Si  ninguna  de  esas condiciones es posible, habrá un efecto de escala  impredecible  y sería prudente en ese  caso,o  hacer  el  escalado  ascendente  en varias etapas o  emplear  amplios  factores  de  seguridad  en  el diseño.

 

2.1.3 Criterios de semejanza.

Introducción.

     El análisis hecho sobsre la definición de semejanza en los distintos sistemas de interés  para la Ingeniería Química y Bioquímica  conduce, en todos los casos, al planteamiento de las condiciones necesarias para la existencia de semejanza entre prototipo y modelo. Esas condiciones son expresads como igualdades entre razones de magnitudes correspondientes dentro del mismo sistema, que toman la forma de grupos  adimensionales. 

     Al analizar cualquier sistema, la semejanza se determina por la igualdad  del valor de dichos grupos en el prototipo y en el modelo. Estos grupos constituyen los criterios de semejanza entre los sistemas comparados. Así, por ejemplo, el número de Raynolds es el criterio de semejanza dinámico para sistemas de flujo geometricamente semejantes.

 

Obtención de los criterios de Semejanza.

     Se ha mencionado anteriormente que la semejanza química, térmica o mecánica entre  sistemas  geométricamente  semejantes  pueden  ser especificadas  en  términos  de  criterios  que   son   relaciones intrínsecas de mediciones, fuerzas o razones de cambio  dentro  de cada  sistema.  Puesto  que  esos  criterios  son  relaciones   de cantidades  de  igual  magnitud,  resultan  ser  adimensionales  y existen dos métodos generales de obtenerlos.

     Cuando son desconocidas las ecuaciones diferenciales que gobiernan el comportamiento  de  un  sistema,  pero  se  conocen  todas  las variables que deben entrar en dichas ecuaciones diferenciales,  es posible obtener los criterios de semejanza por medio del análisis dimensional. Cuando las ecuaciones diferenciales  del sistema se conocen pero no pueden ser integradas, los criterios de semejanza  se  pueden  derivar de  la  forma  de  las  ecuaciones diferenciales.

     En los casos en que se conozcan  las  ecuaciones  diferenciales  y además éstas se pueden integrar y  resolver,  no  hay  en  general necesidad de los criterios de semejanza ni de los experimentos con modelos, puesto que el comportamiento del sistema  a  gran  escala puede ser directamente calculable.

 

Análisis Dimensional.

 El  análisis  dimensional  es  una  técnica   para   expresar   el comportamiento de un sistema  físico  en  términos  de  un  número mínimo de variables independientes y  en  una  forma  tal  que  no resulten afectadas por los  cambios   de  las  magnitudes  de  las unidades de medidas. Las cantidades físicas se agrupan  en  grupos adimensionales consistentes en relaciones  de  magnitudes  iguales (longitudes,  velocidades,  fuerzas,  etc.)  que  caracterizan  el sistema,  los  que  constituyen   las  variables  en  la  ecuación adimensional de estado (o de movimiento) del sistema.

     El análisis  dimensional  puede brindar  resultados incorrectos  a menos que se hayan tenido en cuenta cada una de las variables  que influyen significativamente en el sistema que se está  analizando, por lo cual es necesario conocer bastante sobre los mecanismos  de un proceso antes de poder aplicar  con  confianza  este método. La clave del éxito está en la selección inicial de las variables.

     Si la lista de variables es muy larga y se incluyen por  lo  tanto variables cuyo efecto no es apreciable, los factores superfluos se pueden eliminar a veces durante el análisis, pero en la mayoría de los  casos esto  no  es  posible  y  el  número  de  criterios  de semejanza obtenidos resulta innecesariamente grande y el  problema de alcanzar la semejanza aparece más difícil de lo  que  realmente es. Si por el  contrario, se  omite   alguna    de  las  variables realmente  relevantes  en  el  sistema,  el  análisis  dimensional llevará a una falsa conclusión.

     De lo antes expuesto se deriva el hecho de que la  aplicación  del análisis dimensional aisladamente es muy difícil que nos  conduzca a obtener  un conocimiento  completamente  nuevo.  Muchas  de  las aplicaciones clásicas de este método lo que han hecho realmente es confirmar las  relaciones  que  ya  se  conocían  o  al  menos  se sospechaban, lo que de hecho elimina la dificultad principal de la selección inicial de las variables.

     Para obtener los criterios de semejanza a partir del Análisis Dimensional se utiliza el Teorema de Buckingham y el Método de Railegh y se parte de conocer todas las  variables  que  intervienen  en  un proceso dado, como se ha dicho anteriormente. La aplicación de estos métodos se pueden estudiar en diferentes textos como los de  Jonhstone  y Thring (1957),  Perry y Green (1986) y  Rosabal (1988).

 

Ecuaciones Diferenciales.

     Para muchos de los procesos físicos y químicos que se utilizan  en las ingenierías química y  bioquímica,  se  conocen  las  ecuaciones diferenciales fundamentales,  pero  la  dificultad  radica  en  su integración, lo que solamente puede ser hecho matemáticamente para sistemas  de  forma  determinada  y  no  muy  elevado   rango   de complejidad. Este es el caso, por ejemplo, del  flujo  laminar  de fluido en tuberías rectas, el que  se  resuelve  por  la  conocida ecuación de Poiseuille (3).

     Muy frecuentemente el  sistema  o  proceso  es  tan  complejo  que resulta  imposible  una  integración  matemática  y  es  necesario integrarla empiricamente y de esa forma se han obtenido  la  mayor parte de las ecuaciones de las ingenierías química y bioquímica. Sin embargo su carácter empírico hace que las mismas sólo sean válidas cuando el sistema al cual se  aplican  mantiene  cierta  semejanza  geométrica   con   el   sistema   del   cual   fueron    derivadas experimentalmente.

     En los casos en  que  la  ecuación  diferencial  que  gobierna  un sistema  se  conoce  y  siempre  y  cuando  ésta  sea  completa  y dimensionalmente homogénea, resulta  fácil  poner  la ecuación en forma adimensional y  derivar  entonces  de  ella  los criterios de semejanza  necesarios,  sin  tener  que  aplicar  los métodos  del  análisis  dimensional,  lo  que  representa   varias ventajas.   

     En primer término se  elimina  una  de  las  principales dificultades del análisis dimensional, que es la de  asegurar  que ninguna variable significativa sea ignorada y  en  segundo  lugar, utilizando  las  ecuaciones  diferenciales  se  puede  mostrar  el sentido físico de los grupos adimensionales  obtenidos,  como  una relación de flujos, fuerzas o cantidades análogas.

     Estas ventajas no quieren decir que la  información  obtenida  por este método no esté sujeta a errores, como son los producidos  por despreciar algunas variables menores durante el desarrollo  de  la ecuación,  pero  evita  los  errores  adicionales  que  se  pueden incorporar debido a una incorrecta integración  de la  ecuación  o una evaluación imprecisa de las constantes.

     Para  derivar  esos  criterios  de  semejanza  de  las  ecuaciones diferenciales, se procede de la forma siguiente:

1- Se reduce la  ecuación  diferencial  a  una  forma  dimensional generalizada, omitiendo los signos diferenciales y las  constantes numéricas.

2- Se divide la ecuación por uno cualquiera de  sus  términos,  de manera tal que todos sus miembros se tornen adimensionales.

     Para los procesos en serie, las ecuaciones físicas tienen la forma de  las  ecuaciones  en  serie   y   los   criterios adimensionales son relaciones de las fuerzas impulsoras o  de  las resistencias. Para los procesos en paralelo las ecuaciones físicas tienen la forma de las ecuaciones paralelas   y  los criterios adimensionales son relaciones de flujos, conductancias o cantidades  totales.  Para  los   procesos   serie-paralelo,   las ecuaciones  compuestas,  deben   ser   resueltas   en   sus componentes simples, en serie y en paralelo, a  cada  una  de  las cuales se les aplicara uno o más criterios adimensionales.

     Este procedimiento se aplica a los diferentes tipos generales de procesos, o sea:

     Procesos mecánicos.

      1- Deformación elástica de sólidos

      2- Deformación plástica de sólidos

      3- Flujo de sólidos granulares

      4- Flujo de fluídos

     Procesos térmicos.

     5- Conducción en sólidos

     6- Convección forzada en fluidos

     7- Radiación

     Procesos difusionales.

     8- Conveccion  forzada en fluidos

     Procesos químicos.

     9- Reacciones homogéneas

     10- Reacciones heterogéneas

     Ejemplos amplios de la aplicación de estos procedimientos en todos estos procesos se hallan en el Jonhstone y Thring (1957) y en el Rosabal (1988).

 

2.2 El Concepto de Régimen.2.2.1 Definición de Régimen.

     En el epígrafe 2.1 , los sistemas físicos fueron clasificados como estáticos, dinámicos, térmicos, químicos, etc. y en la práctica cualquier sistema real puede ser clasificado en más de uno de esos tipos, de

acuerdo con el aspecto particular de su comportamiento que  se  considere. Por ejemplo un condensador tubular constituye un sistema  estático con respecto a las tensiones en los tubos y la coraza, un  sistema dinámico con respecto a los  patrones  de  flujo  y  la  caída  de presión, un sistema térmico con respecto  a  la  transferencia  de calor y un sistema químico con respecto a las incrustaciones y  la corrosión y los criterios de  semejanza  a  emplear   variarán  de acuerdo a cuál de esos efectos está siendo estudiado.

     En ese epígrafe se   definieron también los   criterios  de  semejanza adimensionales como las relaciones de cantidades físicas  que  son función de las diversas fuerzas o resistencias  que  controlan  la variación con respecto al tiempo  de  la  reacción,  por  lo  cual cuando en un sistema hay diversos factores controlantes de  clases diferentes, habrán también varios criterios adimensionales.

     Por ejemplo, la resistencia al movimiento de un fluido  puede  ser debida al arrastre viscoso, a las  fuerzas  gravitacionales o a la tensión superficial y en cada caso los criterios adimensionales de semejanza  serán  los  grupos  de   Reynolds,   Froude   y   Weber respectivamente. Sin embargo para sistemas homólogos de diferentes magnitudes  absolutas,  esos  tres   criterios  son   mutualmente incompatibles, puesto que  cada  uno  de  ellos  requiere  que  la velocidad del fluido  varíe  como  una  función  diferente  de  la dimensión lineal, ya que:

     Para iguales números de Reynolds v es  proporcional a L-1

     Para iguales números de Froude v es proporcional a L0.5 

     Para iguales números de Weber v es proporcional a L-0.5

     Si se emplean fluidos con muy diferentes  propiedades  físicas  en los dos sistemas y se selecciona una relación de escala apropiada, es posible, dentro de ciertos límites  satisfacer  simultáneamente dos cualesqiera de esos criterios, pero es casi imposible  cumplir con los tres a la vez.

     Por ejemplo (11), en un mezclador de paletas sin  deflectores,  el patrón de flujo depende tanto del número de Reynolds como  del  de Froude y ambos criterios pueden  hacerse  iguales  en  mezcladores semejantes geométricamente  sólo  si  se   emplean   líquidos   de diferentes viscosidades en el prototipo y en  el  modelo.  En  ese caso, para iguales números de Froude:

Y para iguales números de Reynolds:

 

donde es la viscosidad cinemática del líquido.  Igualando  ambas condiciones se tiene:

o lo que es igual:

      Es decir, se puede lograr una semejanza dinámica rigureosa  si  se escoge un líquido para el modelo  con  una  viscosidad  cinemática mucho menor que la del fluido en el prototipo. Por ejemplo, si  en el prototipo se va a emplear agua, se puede considerar  el  empleo de mercurio en el modelo, ya que el mercurio tiene una  viscosidad

cinemática a 20 C, 8.9 veces menor que la del agua y en  ese  caso la reducción de escala debe ser:

o sea:

     Por lo cual el modelo  deberá  ser  4,3  veces menor  que  en  el prototipo.

     Por consiguiente, cuando  se escala un proceso  físico  o  químico complejo, resulta ventajoso  escoger  condiciones  tales  que  las variaciones con respecto al tiempo del proceso  completo  dependan predominantemente de un sólo criterio adimensional, aunque en  los experimentos con modelos puramente físicos en los cuales se  tenga un  sistema  no  homólogo,  se  pueden  utilizar   dos   criterios adimensionales a la vez.

     El proceso determinante en la razón de cambio  de un sistema debe distinguirse del proceso principal que tiene lugar o del  que  es  el  objetivo  de  la  operación  a  efectuar.  Por consiguiente, las reacciones químicas pueden estar  sujetas  a  un régimen dinámico cuando el sistema es heterogéneo y  la  velocidad de reacción muy alta. De manera  semejante,  la  transferencia  de calor está sujeta a un régimen  dinámico  cuando    la  convección forzada es la que controla la rapidez,  mientras  que  el  régimen será  térmico  cuando  controlan  la  radiación  o  la  convección natural.

     El término régimen se emplea en  este  texto  para  distinguir  el proceso que determina la razón de cambio de  un sistema en el cual pueden estar ocurriendo otros  varios  procesos en serie o en paralelo, o en otras palabras, régimen es la  fuerza particular,  flujo  o  factor  de  resistencia  que  controla   la razón de cambio global del sistema. En un sistema estático por  ejemplo,  el  régimen  distingue  los  factores  que gobiernan el desplazamiento total.

     En un sistema dado, el régimen depende de las magnitudes relativas de  las diversas resistencias de la reacción y las  mismas  varían con las condiciones de operación. Por  ejemplo,  en  una  reacción química que está sujeta a un régimen dinámico, el incremento de la agitación puede llegar a disminuir la  resistencia de la  difusión  hasta un  punto  en  el  cual  la  resistencia  de  la  conversión predomine y el régimen se convierta en químico.  Entre  estos  dos regímenes hay una región intermedia de régimen mixto  en  la  cual tanto la resistencia de la conversión como la de la  difusión  son apreciables.

     Correspondiendo a cada una de las clases principales de  regímenes (estático,  dinámico,  térmico  o   químico),   existen   diversas variantes posibles de acuerdo  con  la  naturaleza  de  la  fuerza motriz o factor de resistencia que controle la resultante, ya  sea ésta una cantidad total o variación con el tiempo Por ejemplo,  un régimen dinámico fluido puede ser controlado por  la  relación  de las fuerzas de inercia a las de  viscosidad,  gravedad  o  tensión superficial y a su vez, el régimen controlado  por  la  viscosidad puede ser laminar o turbulento.

     Teniendo en cuenta lo antes expuesto, para  realizar  un  escalado ascendente  o   descendente   confiable,   son   necesarias    dos condiciones:

     1- El régimen debe ser relativamente "puro", o  sea  la  variación    con   respecto   al   tiempo   de la  reacción   debe  depender    principalmente de un único grupo adimensional.

2- El régimen debe de ser del mismo tipo  tanto  en  el  prototipo    como en el modelo.

     La primera condición ya ha sido analizada y la segunda requiere que, cuando se planifican una serie de experimentos con modelos  o en  plantas  piloto,  se  tengan  constantemente  en   mente   las condiciones correspondientes en el prototipo, para impedir que  el régimen vaya a ser diferente. Esto  puede  ocurrir  principalmente  cuando  es  necesario  extrapolar  las  relaciones  de   semejanza .

 

2.2.2 Determinación teórica del régimen de un sistema.

     El régimen  prevaleciente  en  un   sistema  es  posible  a  veces determinarlo por simple inspección, como  por  ejemplo  cuando  se transfiere calor a un líquido por  convección  natural  y  resulta obvio que se trata de un régimen térmico,  en  el  cual  la  única variable de proceso que afecta la variación con respecto al tiempo de la transferencia de calor es la diferencia de temperatura.  Sin embargo, cuando el régimen prevaleciente no es evidente,  se  debe realizar su determinación teórica o empíricamente.

     El método teórico consiste en examinar la razón de cambio del sistema y calcular por separado el  orden  de  magnitud  de  los factores de resistencia, componentes de fuerzas motrices o  flujos que se combinan para determinar la rapidez de cambio  global.  Este método resulta muy útil para la definición del criterio de escalado a aplicar en muchas sistuaciones prácticas.

     Por ejemplo, en la combustión de un combustible líquido  atomizado  se puede calcular que, bajo condiciones normales, el tiempo requerido  para que las gotas se evaporen y después combustionen, son  en  su conjunto menores que la décima parte del tiempo requerido para  su mezcla con el aire de combustión. El proceso en su  conjunto  será controlado por consiguiente por la resistencia de  la  difusión  y estará sujeto a un régimen dinámico.

     Un procedimiento muy empleado para la determinación teórica del régimen predominante en un sistema (Reuss y Bajpai, 1993), es el de obtener los tiempos correspondientes,  llamados también constantes de tiempo, para cada uno de los términos de la ecuación diferencial que describe el comportamiento de un sistema dado.

     Para ilustrar ese procedimiento se tomará como ejemplo un biorector agitado mecánicamente en el cual se llleva a cabo una fermentación aerobia y se presentan las expresiones para calcular las distintas constantes de tiempo y los valores típicos obtenidos para una fermentación industrial de ácido glucónico (Tabla 3.1). Del análisis de esos valores se pueden extraer muchas informaciones útiles para el control de dicho proceso. Por ejemplo, el orden de magnitud muy similar que tienen tanto la cosntante de tiempo de transferencia de oxígeno como la de su consumo, indican que puede existir, en un momento dado, limitación de oxígeno. Los valores elevados de las constantes de crecimiento de biomasa y de utilización de sustrato, y en especial esta última, indican la importancia especial de estos parámetros en el escalado.

     No obstante, el hecho de que la determinación de las constantes de tiempo requiere el empleo de correlaciones empíricas, como las de determinación del coeficiente klal, el éxito de estos análisis depende mucho de la calidad de las correlaciones utilizadas, lo cual en muchos casos es cuestionable (Reuss, 1993).

 

2.2.3 Determinación empírica del régimen de un sistema.

     El método empírico  de  determinación  del  régimen  prevaleciente consiste  en  observar  experimentalmente  el  efecto  de  ciertas variables  en la variación  global  del sistema, sin que  sea  necesario  conocer  la  ecuación  de  dicha variación. Este método es particularmente aplicable  cuando  están involucradas tanto la resistencia química como la difusional.

     Para un sistema de ese tipo, el diseño de la planta y la selección de las condiciones de operación dependerán en gran  medida  de  si prevalece  un  régimen  químico  o  dinámico  y  el  método   para determinarlo es  observar  el  efecto  que  tienen  el  cambio  de temperatura (medido genralmente por el denominado coeficiente de temperataura de  10C) y  del grado de agitación (medido a su vez, generalmente, por el índice de Reynolds), sobre  la rapidez global. En el clásico libro de Johnstone y Thring (1957) se pueden encontrar ejemplos de cálculo y aplicación de esos dos coeficientes, de gran importancia práctica.

     El método empírico de descubrir el régimen   prevaleciente  cuando tienen lugar ambos procesos, el químico y el dinámico, depende  de la determinación experimental    de dos parámetros: el  coeficiente  de  temperatura  de   10C (corregido cuando es necesario a la temperatura de  referencia  de 15 C ) y el índice de Reynolds. Las conclusiones a que  se  pueden llegar  a  partir  de  esos  parámetros  se   sumarizan   en   las siguientes reglas generales:

 1- Un coeficiente de temperatura  mayor  que  2  caracteriza  un  régimen químico. Un coeficiente menor de 1.5  caracteriza  un  régimen dinámico.

  2- Un índice de Reynolds cercano a cero, caracteriza un  régimen  químico o un régimen dinámico laminar; un índice entre 0.5  y   0.8 caracteriza  un régimen dinámico turbulento con interfase  fija y un índice entre 3 y 5 caracteriza un régimen  dinámico con  interfase  fija,  o  sea  un  sistema  de   dos   fases, líquido-líquido o gas-líquido.

 

 

     Tabla 3.1 Constantes de tiempo para diferentes procesos que ocurren en un bioreactor industrial (fermentación ácido glucónico) Tomado de Mattews y Reuss, 1993.

Proceso

Ecuación

Const. de tiempo

 

Fenóm.  Transp.

Transf. masa gas-líquido

 

 

 

5.5 - 11.2

 

Tiempo  circulación

 

 

 

12.3

 

Tiempo residen-

cia del gas

 

 

20.6

 

Transf. de calor

 

 

330 - 650

 

Conversión

Consum. de oxígeno

 

 

0.7 - 16

 

Utiliza-ción del sustrato

 

 

5.5E+4

 

Creci-miento biomasa

 

 

1.2E+4

 

Produc-ción de calor

 

 

350

 

  3- Cuando el coeficiente de temperatura de 10  es mayor que  1.5  y menor que 2 y el índice de Reynolds está por debajo de 0.5,  prevalece un régimen dinámico-químico mixto.

 

2.2.4 Régimen mixto.

 

     Cuando el coeficiente de temperatura de 10C  de una  reacción  está por debajo de 2 y el índice de Reynolds es  sustancialmente  mayor que cero, pero menor que 0.6, tanto la resistencia de la  difusión como  la  resistencia  de  la  conversión  tienen  una  influencia considerable en la velocidad de reacción  global. También,  en  el caso en que nos encontremos en un régimen dinámico puro, esto  nos indica  que tanto la  viscosidad   como   la   gravedad   influyen significativamente en la razón de cambio del sistema,  o  sea  que tienen que ser tomados  en cuenta simultáneamente los  números  de Reynolds y de Froude. En ambos casos estamos en  presencia  de  lo que se conoce como régimnen mixto.

     En general,  un  régimen  mixto  existe  cuando  hay   dos  o  más resistencias  de  reacción  que  influyen  significativamente   la rapidez de la reacción, las cuales conforman relaciones de  escala lineales diferentes. De esta forma, si el proceso  se  escala  con respecto a una clase de resistencia, no habrá  entonces  semejanza con respecto a la otra.

     Este tipo de problemas se encuentra constantemente en la  práctica y  para  ello  se  necesita  poder  contar  con  diversos  métodos empíricos que permitan corregir una de las  resistencias  mientras se escala con respecto a la otra. Por esta causa la  presencia  de un régimen mixto marca siempre un punto de  peligro  en  cualquier proceso nuevo, puesto que no siempre se puede encontrar  una  base confiable para predecir el comportamiento en  la  escala  mayor  a partir de los resultados de los experimentos a pequeña escala.

     Algunas veces es posible sacar a  la  reacción  de  la  región  de régimen mixto cambiando las condiciones de operación de manera tal que una de las clases de resistencia  se  haga  despreciable.  Por ejemplo, teniendo en cuenta que  las  reacciones  químicas  tienen mayores   coeficientes   de   temperatura   que   los    fenómenos difusionales, un incremento de la temperatura tiende  a  convertir un régimen químico  en  un  régimen  dinámico  controlado  por  la viscosidad.

     De  forma  semejante,  cuando  se   tiene   un   régimen   químico heterogéneo, la reducción del grado  de  agitación  incrementa  la resistencia de la difusión  de forma tal que el régimen  tiende  a pasar primero a mixto y después a  totalmente  dinámico.  En  cada caso un cambio de temperatura  o  agitación,  respectivamente,  en cualquier dirección puede llevar a la reacción fuera  del  régimen mixto, siempre y cuando el cambio pueda realizarse en la  magnitud requerida. De  igual  forma  cuando  se  tiene  un  régimen  mixto controlado por la gravedad y la   viscosidad,  un  cambio  en   la  geometría  del sistema puede eliminar el efecto  de  la  gravedad, como ocurre cuando se introducen deflectores en  un  mezclador  de paletas.

     Cuando es imposible o impracticable escapar de  un  régimen  mixto mediante la modificacion de  las  condiciones  de  operación,  hay varios  procedimientos  mediante  los  cuales   las   dificultades inherentes del régimen mixto pueden ser por lo menos  parcialmente resueltas. Entre esos procedimientos tenemos:

 

      1-Calcular uno de  los  factores  de resistencia  y  realizar los experimentos con modelos para determinar el otro.

     El ejemplo  clásico de este procedimiento es la prueba en  tanques de modelos de casco de  buques.  En  ese  caso  (11),  el  sistema depende tanto del número de Reynolds como del número de Froude,  o sea el coeficiente de arrastre (CD) es igual a:

                      

     O sea se considera el  coeficiente  de  arrastre  total CD formado por dos  coeficientes  de  arrastre,  uno  debido  a  la  fricción pelicular, que es proporcional al número de Reynolds y otro debido a la formación de ondas, proporcional al número de Froude:

                    

     El coeficiente de arrastre debido a la fricción (CDf)  se  calcula mediante el empleo de  la  teoría  de  la  capa  límite  y  en  el experimento se determina el coeficiente de  arrastre debido  a  la formación de ondas (CDg), restando  al  coeficiente  total  medido (CD), el coeficiente calculado para la fricción (Cf). El  escalado se realiza entonces basado en la igualdad del número de Froude  en el prototipo y en el modelo.

 

 2- Realizar una distorsión geométrica del modelo  para  compensar   el régimen mixto.

     Por ejemplo, en el caso de  un tubo simple a través del cual fluye y reacciona químicamente una mezcla gaseosa, el calor generado  se remueve del exterior del tubo por radiación y convección  natural. La rapidez global de la reacción estará influenciada tanto por  la composición química como por la rapidez  de  la  transferencia  de calor, o sea el régimen es  parcialmente  químico  y  parcialmente térmico.

     Para lograr la semejanza la temperatura de reaccion  debe  ser  la misma tanto en la escala grande como en la pequeña  y  también  la pérdida de calor por unidad  de área  debe  ser  igual  en   ambas escalas. Estos requerimientos simultáneos no pueden ser  cumplidos por un modelo, puesto que la superficie relativa del mismo siempre es mucho mayor  que  la  del  prototipo  y  por  consiguiente  las pérdidas de calor serán excesivas en el modelo y la temperatura de reacción no podrá ser mantenida, lo que impide la modelación.

     En ese caso la  semejanza  puede  alcanzarse,  si  se  distorsiona geométricamente el modelo de forma tal que el área superficial por unidad de volumen sea igual a la del prototiopo, lo que  se  logra manteniendo igual el diámetro en el modelo y en el prototipo,  por lo cual el modelo será un recipiente achatado, en lugar  del  tubo alargado del prototipo  y por ello hay que ajustar los  flujos  de reactivos de forma tal que el tiempo de residencia  sea  igual  en ambos.

    Con ese modelo distorsionado en la vertical, se  logra mantener la condición de igual temperatura, al  ser  igual  la  transmisión  de calor al exterior y solamente hay que tener en cuenta los posibles efectos  de las  pérdidas de calor  mayores  que pueden existir en los  extremos del  modelo achatado.

     Las pérdidas de   calor por los extremos del recipiente modelo  se pueden prevenir mediante aislamiento,  aunque  se  debe  tener  en cuenta  que  los  efectos  de  los  extremos   sólo   pueden   ser despreciados en un rango de escala moderado. Cuando  la  reducción de escala es grande, este método tienda a dar un modelo con  forma de torta, en el cual los efectos de los extremos pueden  llegar  a ser predominantes.

      Bajo las circunstancias  arriba  mencionadas,  el  coeficiente  de transferencia de calor interno será menor en el modelo que  en  el prototipo a causa de la menor velocidad de fluido. Esta diferencia se  considera  que  tiene  una  influencia  despreciable   en   el coeficiente  global,  pero  la  semejanza   puede   ser   mejorada calculando aproximadamente los coeficientes de película   internos en ambos recipientes y considerando suficiente superficie extra en el modelo para compensar la pequeña  disminución  del  coeficiente global que pueda producir la disminución del coeficiente  interno.

    En otras palabras,  la discrepancia de segundo orden debido a  los coeficientes de película internos se corrige aplicando  el  método 1 explicado anteriormente.

    Otros ejemplos de este tipo (11) se tienen en los casos de  varios sistemas hidráulicos complejos  como son el diseño de  aliviaderos en las presas,  el  control  de  inundaciones,  el  estudio de las características de los estuarios de los ríos y  la  protección  de puertos mediante  rompeolas  artificiales,  entre  otros,  en  los cuales la reducción de escala es muy grande y se está en presencia de una dependencia simultánea de los números de Froude y Reynolds.

     En esos sistemas  se  hace  necesario  tomar grandes relaciones de reducción de las distancias, siendo típico un valor de 1000 debido al tamaño de los prototipos. Sin embargo,  si  se  toma  la  misma relación de reducción para  las  distancias  verticales,  resultan profundidades demasiado pequeñas en el modelo, por lo que hay  que aplicar una  semejanza  geométrica  distorsionada,  tomándose  por ejemplo, un valor de 100  para  la  reducción  de  las  distancias verticales y manteniéndose 1000 para las horizontales.

 

 3- Modificar uno de  los  factores  controlantes  mediante  algún arreglo artificial en el modelo.

     En el primer ejemplo anterior en lugar de un modelo  distorsionado con igual diámetro que el prototipo, puede emplearse  un  tubo  de reacción modelo a escala, si se reduce artificialmente la  pérdida de calor a través de la  superficie  externa  mayor  del   modelo, mediante el empleo de un aislante adecuado,  llevándola  al  mismo valor por unidad de área del prototipo no aislado. Esta  solución se tratará más ampliamente en el tema de los efectos  de  frontera .

 

2..3 LA EXTRAPOLACION Y LOS EFECTOS DE FRONTERA.

2.3.1  Limitaciones del principio de semejanza.

     Una de las razones para que el principio de semejanza no haya sido desde un inicio más ampliamente aplicado a las plantas pilotos  es el hecho de que estas plantas deben  necesariamente  procesar  los mismos materiales  que  la  planta  a  gran  escala  y  bajo  esos requerimientos la semejanza estricta requiere que el modelo  o  el prototipo operen bajo condiciones que  son  impracticables  o  que cambian el régimen de flujo.

     Por  ejemplo,  en  mezcladores  de  paleta   bien   provistos   de deflectores, el criterio de semejanza dinámico es la  igualdad  de los números de Reynolds modificados  y  eso  conduce,  cuando  las relaciones de escalado son grandes, a velocidades de agitación muy bajas en el  prototipo  lo  que  resulta  antieconómico  o  a  una velocidad en el modelo tan alta que puede ocurrir cavitación y por lo tanto existir interferencias en el  régimen de flujo.

     Además, la potencia consumida por el modelo  es  L  veces  la  del prototipo  y el calor provocado por  la  fricción  por  unidad  de volumen de fluido es L  veces la del prototipo. Una  potencia  tan elevada no es siempre  posible  de  aplicar  en  un  modelo  y  la evolución de calor puede alterar apreciablemente la

viscocidad  de los líquidos que están siendo mezclados.

     Otras veces la semejanza de Reynolds requiere velocidades de flujo en la escala pequeña que se aproximan a la velocidad del sonido  y en este caso el número de  Mach  llega  a  ser  importante  en  el modelo, aunque no en el prototipo, por lo cual  los régimenes  son diferentes y es imposible la semejanza dinámica.

     De forma inversa a las plantas pilotos,  en los modelos esto no es un problema tan serio y se  transforma  a  veces  incluso  en  una ventaja, ya que se pueden realizar las experiencias en condiciones mucho más faciles que en  el  prototipo.  Por  ejemplo  cuando  se modela el flujo gaseoso a baja  velocidad,  como  es  el  caso  de sistemas de ventilación o los hornos, si la velocidad de flujo  en el prototipo es de orden de 2-10 m/s, y la razón de escala se toma igual a 10, entonces en el modelo la velocidad necesaria  será  de 20-100 m/s, velocidad para la cual ya puede ser marcado el  efecto de la compresibilidad y el número de Mach debe ser añadido  al  de Reynolds para lograr la semejanza .

     Sin embargo, esto esto puede  solucionarse  favorablemente  usando agua en el modelo, cuya viscocidad cinemática es casi veinte veces manor que que la del aire y con esas condiciones la velocidad  del modelo sería  sólo  de  1-5  m/s,  perfectamente  obtenible.  Esto permite también sustituir  el  trabajo,  por  ejemplo,  con  gases calientes y otros fluidos difíciles y costosos de  manipular,  por el trabajo con fluidos como el agua, el  aire  frío  u  otros  con condiciones mejores y más económicas de funcionamiento.

      Estas posibilidades han hecho muy popular el  uso  de  modelos  a gran escala denominados mockups  (13),  los  cuales  simulan  el proceso físico real adoptando condiciones mucho  más  "suaves"  de operación,  generalmente  a temperatura  y  presión  ambientes  y utilizando fluidos más baratos y menos difíciles de manejar. Estos modelos se construyen en tamaños casi iguales a los de la planta a gran escala, aunque también se construyen  en  diferentes  tamaños para examinar con precisión el efecto de los factores de escala en el fenómeno estudiado  y  ayudar  a  la  obtención  de  los  datos requeridos para el escalado.

     Modelos de este tipo (mockups)  han sido  utilizados  por  ejemplo durante el desarrollo  de  procesos  de  hidro  desulfuración  del gas-oil, para el estudio del flujo de dos fases (gas y líquido)  a través  de  las  camas  de  catalizador,   así  como   durante  el desarrollo de procesos de reformación catalítica  con  catalizador en movimiento.

     En la  Figura 2. 6 (13). se muestran mockups utilizados para el desarrollo de los procesos catalíticos de cama móvil, con los cuales se probó el transporte neumático, los sellos, las válvulas y la circulación de sólidos.

Figura 2.6 Ejemplos de modelos a gran escala (mockups) utilizados para el desarrollo de diversos procesos petroquímicos (De Trambouze, 1990).

     En todo los casos los mockups,  como los demás tipos  de  modelos, se han usado como complemento de los equipos de laboratorio, banco o piloto desarrollando con los  mismos  la  investigación  de  los mecanismos físicos que son más sensibles al tamaño  como  son  los procesos hidrodinámicos

     Cuando se trata de las plantas piloto en las cuales los fluidos  a procesar son iguales que  los prototipos,  no  se  pueden utilizar estos procedimientos y hay que utilizar otros medios entre los que se destacan el uso de elementos  o   modelos  de  elementos  y  la extrapolación.

     Cuando el aparato  prototipo  tiene  una  estructura  mútiple,  es posible entonces establecer la semejanza mediante un  elemento  de tamaño  completo o un  modelo  a  escala  de  ese  elemento,   con relativamente poca reducción de escala. Esto se puede  hacer,  por ejemplo, en el caso de un mezclador o reactor químico del tipo  de

tanque agitado, donde el rendimiento depende del patrón  de  flujo global del sistema. Entonces, cuando la semejanza dinámica resulta impracticable. se  necesita  algún  método  mediante  el  cual  el comportamiento del modelo  pueda  ser  extrapolado  a  condiciones dinámicamente disímiles en el prototipo.

 

2..3.2 El Principio de Semejanza Extendido : La Extrapolación

     El concepto de extrapolación se comprende  mejor  considerando  el ejemplo del diseño de un equipo en particular, como un proceso  de aproximaciones sucesivas.

     Supongamos que se quiere diseñar un intercambiador  de  calor.  La primera  aproximación  sería  asumir  un  valor   fijo   para   el coeficiente global de transferencia de  calor  y  aunque  de  esta forma  se  han   diseñado   muchos   intercambiadores   de   calor satisfactorios, esto no elimina el hecho de que esta suposición es  una aproximación burda y requiere el uso de  grandes  factores  de seguridad.

    La segunda aproximación es calcular  el  coeficiente  de  película individual  mediante  una   ecuación   de   rapidez   empírica   o parcialmente  empírica   y  éste  es  el  método  básico  empleado normalmente para el diseño de cualquier planta de procesos  en  el papel. Para este cálculo se emplean las ecuaciones de  variaciones con respecto al tiempo normales, tanto para  la  transferencia  de calor, como para masa y momentun, las cuales son formuladas con la ayuda del análisis  dimensional,  aunque  contienen constantes empíricas.

     Todas esas ecuaciones de  razones  de  cambios  empíricas  o  semi empíricas, asumen tácitamente un principio que ha sido  denominado principio  extendido  de  semejanza.  El  principio  de  semejanza clásico se expresa mediante ecuaciones de la forma:

                Q =  j (R,S.......)                 (2.1)

donde Q, R  y S  son grupos  dimensionales  y    j  es  una  función desconocida. El principio extendido de semejanza sustituye   j  por una función de potencias, llevando la ecuación a la forma:

                Q = C (Rx )(Sy)                    (2.2)

donde x, y,  C,  son constantes. En la  práctica  se  ha  podido comprobar que  los procesos físicos  de  transferencia  de  calor, masa y momento se describen adecuadamente con ecuaciones  de  este tipo .

    Como regla, los exponentes x e y  casi no  son  afectados  por  la geometría del sistema, mientras que la constante C si lo es y  por ello de hecho constituye  un factor de forma. Este factor de forma sólo puede ser calculado en casos muy simples, por lo  cual  deben ser determinado experimentalmente y por ello  las  ecuaciones  del tipo  de  la   (2.2)   son   aplicables   solamente   a   sistemas geométricamente  semejantes  a   aquellos   en   los   cuales   se determinaron experimentalmente los factores de forma. Por  ejemplo el factor de forma para la transferencia de calor en  una  tuberia recta puede provocar un serio error si se aplica a un serpentín.

     La  tercera  aproximación  es  eliminar  el  factor  de  forma  C, comparando   sistemas   semejantes   geométricamente   y   tomando relaciones de grupos adimensionales en lugar de los grupos  en  si mismos.  Esto  conlleva  a  experimentar  con  modelos  semejantes geométricamente aunque no estén necesariamente bajo condiciones de semejanza térmica o dinámica. Las ecuaciones para sistemas de este tipo tomarán la forma de:

                             (2-3)

     Además, en el caso de los sistemas homólogos se  cancelan  también los términos relacionados con las  propiedades  físicas,  quedando las expresiones como relaciones simples entre las  razones  de  de las dimensiones lineales y velocidades, del tipo de  las  que  han sido denominadas ecuaciones de  escala,  manteniendo como únicos elementos empíricos remanentes los exponentes x e y .

     Si como una aproximación  final,  más ajustada  teóricamente,   se eliminan los  exponentes x  e  y,  o  la  función  desconocida  j, comparando sistemas semejantes geométricasmente a iguales  valores de los criterios adimensionales, entonces si :

                              R' = R

                             

y

 

                              S' = S

se tiene:

                              Q' = Q                       (2-4)

 

     Y esta expresión expresa  el  clásico  principio  de  semejanza  y define los  estados  correspondientes  para  escalar,   de   forma ascendente o descendente de acuerdo con este principio.

     El problema que se encuentra en la práctica con esta  aproximación es que esos  estados  correspondientes  son,  en  muchas  ocasiones, imposibles de  alcanzar.  Por  esa  causa  ,  si  se  retorna   al principio de semejanza extendido (Ec. 2-3)  se  obtiene  un  grado mucho mayor  de  flexibilidad  ,  aunque  se  pierde  un  poco  de precisión debido a la ligera variabilidad de x y de y , y esto  es lo que se conoce con el nombre de extrapolación .

     La aplicación correcta de la extrapolación, mediante  la  ecuación 2-3, aunque teóricamente inferior a la semejanza clásica  estricta,  es en principio menos susceptible a error que los cálculos  hechos  a partir  de la ecuación 2-2,  la  que  contiene  el  factor  de  forma incalculable y muy variable. Esto es lo mismo que  decir  que  los experimentos a pequeña escala extrapolados a prototipos semejantes geométricamente pero no semejantes dinámica  o  térmicamente,  son mucho menos susceptibles a error que los valores calculados de una ecuación derivada  de  un  rango  de  sistemas  geométricamente no semejantes.

 

2.3.3 Indices de Reynolds y exponente de Lorenz.

     Los valores de los exponentes x e y pueden  ser  hallados  o  bien experimentado con aparatos de pequeña escala o de  la  literatura. La determinación experimental en un aparato de la forma  real  que será usada  en el prototipo,  es  probablemente  el  mejor  método siempre y cuando se puedan cubrir con los experimentos  un  amplia rango de condiciones, de manera tal que se puede verificar que los exponentes no varíen apreciablemente. No obstante, para la mayoría de los procesos físicos y las configuraciones geométricas comunes, están disponibles en la literatura valores de los  exponentes  que resultan suficientemente buenos para la mayoría de los propósitos.

     Además, generalmente los exponentes experimentales son menores que la unidad y por ello un error en los mismos causas sólo un pequeño error en el valor de la función de potencias .

     El  exponente  que  es  más  frecuentemente   utilizado   en   las condiciones de semejanza extrapolada es  el  que  se  conoce  como índice de Reynolds, o sea el exponente del número de  Reynolds  en las ecuaciones empíricas  de  rapidez  para  la  transferencia  de calor, masa y momentum por convección forzada. Este  exponente  ha sido determinado experimentalmente por un número de investigadores para   diferentes   fluídos,   condiciones    de    operacion    y configuraciones  geométricas  y  los  valores  típicos   para   la transferencia de calor y masa en las configuraciones  más  usuales se pueden obtener de la literatura especializada y en particular en el Johnstone y Thring (1957), se puede ver una tabla de los valores típicos para procesos de transferencia de calor y masa.

     Se ha podido comprobar que en sistemas geométricamente semejantes, los índices de Reynolds tanto  para la transferencia de calor como para la de masa son sustancialmente iguales  y  por  ello,  en  la mayoría de las aplicaciones el índice de Reynolds se denota por x. En los casos que se haga necesario diferenciar entre  los  índices para los distintos tipos de transferencia, se emplean entonces los valores de x con  los  subíndices  correspondientes:  xf  para  la transferencia de momentum, xh para la de calor y  xm  para  la  de masa.

     Cuando los rangos de flujo son moderados  el  índice  de  Reynolds para transferencia de momentum,  xf  es del mismo orden de magnitud que los otros tres índices,  con valores entre 0,8-0,85.    Cuando las velocidades son altas,  xf diverge de los otros y se  aproxima a la unidad,  por lo cual en esos casos el efecto  del  número  de Reynolds  en los  patrones  de  flujo  es  despreciables   y   el   coeficiente de presión () es casi constante.          

 

     Otro exponente empírico que se emplea para la extrapolación es  el exponente z de la ecuacion de  Lorenz  para  la  transferencia  de calor por convección natural. La que fue desarrollada  apartir  de la ecuación adimensional generalizada  para  la  transferencia  de calor, quedando como:

                                  (2-5)

donde  C es una constante. El valor teórico  del  exponente  z  es 0,25, pero Saunders encontró  que  el  mismo  varía  algo  con  la magnitud del término entre paréntesis, el  cual  es    el producto de dos números adimensionales, el  de  Grashof  y  el  de Prandtl, o sea (Gr, Pr).

     Para la evaluación del número de Grashof, la  dimensión  lineal  L que se toma es la de la altura vertical de un serpenín o  chaqueta o el ancho medio de una superficie horizontal de calentamiento .

     En el caso de la transferencia de calor por convección forzada  la ecuacion de razón de cambio es del tipo de Dittus-Boelter.y cuando se comparan sistemas homólogos,  las  propiedades  físicas  y  los factores de forma se cancelan y  la  ec.  (2-3)  se  reduce  a  la ecuación de escala:

                                           (2-6)

     Para  convección natural la ecuación de Lorentz, expresada en forma de relación se reduce a su vez a:

                                         (2-7)

     A su vez la transferencia de masa por convección forzada se describe por una ecuación similara la de Dittus-Boelter y para sistemas homólogos, la ecuación de escala es:

                                            (2-8)

     Esta ecuación es válida sólo si el área de transferencia  de  masa es invariable y ésto es estrictamente cierto solamente en el  caso de la transferencia de masa desde un fluido a un sólido insoluble, o sea en la adsorción. Cuando  hay  una  interfase  fluido-fluido, ésta está sujeta siempre a ser alterada y por  lo  tanto  su  área cambia por los movimientos relativos de las fases. Incluso en  las torres de paredes mojadas, el gas a  moderadas  velocidades  forma rizos  en  la  superficie  de  la  película    de   líquido.   Por consiguiente la ecuación (2-8) es de aplicación menos general, para propósitos de escalado, que las ecuaciones (2-6) y (2-7).

     A su vez, la ecuación para fricción  de fluido puede ser escrita como:

                            (2-9)

o también:

                              (2-10)

lo que da lugar a la siguiente ecuación de escala para sistemas homólogos:

                                       (2-11)

     Esta relación también es de menos uso que la de transferencia de calor, producto de la variabilidad de xf entre 0.8 y la unidad. Sin embargo, si tanto el modelo como el prototipo operan a velocidades de fluidos no menors que cuatro veces la velocidad crítica, xf  puede ser tomada como la unidad y la ecuación 2-11 se convierte en:

                                             (2-12)

     Bajo esas condiciones, la caída de presión y el consumo de potencia pueden ser escalados para condiciones que se apartan de la semejanza dinámica. La ecuaciónn de escala para el consumo de potencia, correspondiente a la ecuación 2-12 es entonces:

                             (2-13)

     En todos los casos cuando se  emplee  el  principio  de  semejanza extendido para escalar, ascendente o descendentemente, es esencial verificar que el régimen permanece igual en  el  modelo  y  en  el prototipo.  Si,  por  ejemplo,  el  movimiento  del  fluido  fuera turbulento en el prototipo y laminar en el modelo,  la  suposición de un índice de Reynolds constante  será  entonces   completamente erróneo.

 

2.3.4 Efectos de frontera.

     Cada sistema experimental tiene un límite o frontera que lo separa de los alrededores y delimita las  variables  que  están  bajo  el control del  experimentador.  Cuando  el  sistema  se  escala,  la relación  de  la  superficie  de  frontera  al  volumen   interno, disminuye.  Por ejemplo, un beaker con un diámetro de 0.07 m y una altura de 0.1 m, tiene una relación de  superficie  de  frontera a volumen interno de 57 m /m  y un tanque geométricamente  semejante con una relación de escala lineal de  10,  o  sea  con  0.7  m  de diámetro y 1 m de largo, tiene una relación de sólo  5,7m /  m   o sea  10  veces  menos,  lo  que  nos  indica   que   la   relación superficie/volumen  en  recipientes  semejantes   geométricamente, varia inversamente proporcional a la dimensión lineal.

     Esto  se deduce del hecho de que el área crece proporcional a L2  y el volumen a  L3 ,  por  lo  cual  la  relación  superficie/volumen resulta:

                                             (2-14)

     En el caso mencionado, para llevar la relación  superficie/volumen en el prototipo  al  valor  de  la  del  modelo,  sería  necesario instalar una superficie adicional  equivalente,  para  lo  que  se necesitaría, por ejemplo,  un  serpentín  interior  de  220  m  de tubería de 25 mm de diámetro interior.

     Las superficies o interfases que influyen en el rendimiento de una planta de  procesos  pueden  ser  de  frontera  o  interiores.  La superficie de frontera es  normalmente  la  pared  del  recipiente contenedor, mientras que las  superficies interiores pueden  estar compuestas de tubos, anillos Raschig, gránulos, etc.,  de  acuerdo con el tipo de planta, y pueden  comprender  también,  cuando  hay sistemas de varias fases fluídos, una o más interfases de fluídos.

     Un recipiente plano no  tiene  superficie sólida  interna,  aunque puede tener una interfase fluída. El área de la  interfase  fluída depende principalmente de la dinámica del sistema, por ejemplo del tamaño de las gotas de la fase líquida dispersa en la otra, lo que a su vez depende del grado de agitación a  que  esté  sometido  el sistema, mientras que las áreas de superficie sólida  son  función solamente  de  la  geometría.  Los  sistemas   experimentales   en ingeniería química y bioquímica están  normalmente  contenidos  en recipientes, conductos  o  cámaras  y  limitados  por  superficies sólida . En este contexto se reserva la  palabra  superficie  para las superficies sólidas y las superficies  líquidas  se  denominan interfases.

     En  un  aparato  a  escala  pequeña  que  constituye  un  elemento geométrico, la relación superficie interior/volumen  es  la  misma que en el prototipo, pero si el modelo es un elemento modelo o  un modelo geométrico normal, la relación se mayor en el modelo que en el prototipo, aunque esa diferencia es tomada  en  cuenta  en  las relaciones de semejanza y no constituye un problema .

     La situación es distinta, sin embargo,con la  relación  superficie exterior (límite o frontera) y volumen, la cual es mayor tanto  en el modelo , como en el elemento o elemento  modelo,  con  relación al prototipo y por ello las condiciones fuera de  la  frontera  no necesariamente cumplen con los criterios internos de semejanza.

     Esta alejamiento que puede haber en la superficie frontera  de  la semejanza es el llamado efecto de frontera o efecto de pared y los mismos pueden, a menos que sean controlados, hacer casi  imposible la predicción del rendimiento  a  gran  escala  a  partir  de  los experimentos con modelo. Un ejemplo puede ser un elemento de torre empacada en el cual el diámetro de la torre es  solo  dos  o  tres veces el diámetro del  anillo  de  empaque.   En   esos  casos  la tendencia del líquido a fluir por la pared, al igual que  el  gas, es mucho mayor que en una torre grande y por ello  un  aparato  de ese tipo daría muy poca informacion útil con relacion a la torre a gran escala, debido al efecto de pared predominante en el modelo.

     Los efectos de pared, límite o frontera, no pueden ser  eliminados por incremento de la extensión del sistema  bajo  control.  En  el caso, por ejemplo, de un recipiente de reacción modelo que  pierde calor a los alrededores por  convección  natural,  si  se  intenta hacer segura la semejanza externa, encerrando el recipiente en una cámara donde se le suministre aire  a  la  temperatura  requirida, sólo se logra hacer que el aire que está circulando en esa  cámara forme parte del sistema en estudio y que el efecto de frontera  se transfiera hacia las paredes de la cámara  en  lugar  de  las  del recipiente. Sin embargo, aunque los efectos de frontera no  pueden ser eliminados teóricamente,  ellos  pueden  ser  neutralizados  o compensados  por  procedimientos  experimentales   adecuados,   en dependencia del tipo de efectos que la  frontera  esté  ejerciendo sobre el sistema .

     En  general,  la  pared  de  un  recipiente  puede  tener   cuatro diferentes tipos de efectos sobre una reacción  física  o  química que esté ocurriendo dentro de él :

 

1.-Puede influenciar el patrón de flujo y las  resistencias  a  la  fricción

2.-Puede transferir calor hacia afuera o hacia adentro del sistema

3.-Puede absorber o transmitir materia de la corriente del  fluído 

4.-Puede catalizar positiva o negativamente una  reacción  química en la fase fluída

 

2.3.5 Efectos sobre el patrón de flujos .

     Un modelo semejante  geométricamente,  bajo  un  régimen  dinámico controlado  por  la  viscosidad,  no  sufre   efectos   de   pared relacionados con la fricción. La diferencia  que  existe   en  las relaciones  superficie  interior  y  superficie  exterior   versus volumen, se compensa  con el incremento  de  la  velocidad  en  el modelo. De esa forma, a iguales números de Reynolds, el patrón  de flujo del fluído en el prototipo y en el modelo son semejantes.

     En el caso de un elemento, los efectos de pared  comienzan  a  ser pronunciados cuando la sección se reduce mucho,  de manera tal que la superficie de frontera llega a ser del mismo orden del magnitud que la superficie interior y esto fija el límite  práctico  de  la relación de sección B  que puede ser empleada. Por ejemplo  se  ha encontrado que los efectos de pared en una torre empacada llegan a ser  serios  cuando  el  diámtro  de  la  torre   es   menor   que aproximadamente  10  veces  el  diámetro  del  empaque.   En   una construcción multitubular, un elemento con muy pocos tubos, tendrá un radio hidráulico medio fuera del los tubos que se  diferenciará apreciablemente del radio hidráulico medio  del  prototipo  y  eso provocará diferentes condiciones de película.

     No hay un método simple mediante el cual  pueden  ser  compensados los efectos en el patrón de flujos y el  coeficiente  de  arrastre por fricción provocados por la mayor relación  superficie  volumen de un elemento. En el caso de  las  torres  empacadas,  cuando  el líquido desciende y el gas o vapor asciende, puede  ser  ventajoso cubrir las paredes interiores del elemento  con  alguno  sustancia que no sea mojada por el líquido y esto reduce el efecto de pared, pero en general la  mejor  solución  es  limitar  la  relación  de sección de  un  elemento  a  valores  a  los  cuales  la  relación superficie frontera/superficie interior no sobrepase el 10% .

     Para evaluar la resistencia a la fricción es preferible un  modelo a escala que un elemento o un elemento modelo, siempre   y  cuando la velocidad correspondiente para la semejanza  no  sea  excesiva, puesto que para un modelo, a igualdad de números de  Reynolds,  no hay efecto de pared.

 

2.3.6 Ganancia o pérdida de calor.

     De los tres principales procesos de transferencia  (calor, masa  y momentum), la  transferencia  de  calor  es  el  único  que  puede traspasar  las  paredes  de  un  recipiente,  por  lo  cual en las operaciones y reacciones  que  tienen  lugar  a  temperaturas  por encima o por debajo de la ambiente, el flujo de calor  através  de la superficie externa de los aparatos es normalmente el  principal efecto de pared contra el que hay que protejerse en el escalado .

     En los trabajos iniciales de semejanza térmica,  Damköhler  supuso que  la  pérdida  de  calor  superficial  de  un   recipiente   es proporcional al coeficiente de película interno, pero realmente se ha demostrado que eso no ocurre así casi en la  totalidad  de  los casos. Siempre hay un coeficiente de  película  externo  que  está fuera del sistema y que no es influenciado por las condiciones del flujo interno.     

     Los coeficientes de películas  externos  debido  a  la  convección natural, tienden a ser  de menor orden  que  los  coeficientes  de película internos, cuando en el interior hay convección forzada  y flujo turbulento. Además, cuando un recipiente de proceso  está  a una temperatura muy por encima o por debajo del ambiente, el mismo se aisla normalmente por razones económicas y el resultado neto es que en general la resistencia térmica de la película del fluído es despreciable en comparación con la  resistencia  combinada  de  la película de aire externa y el aislamiento, si lo hay.

     Por consiguiente, aunque los  coeficientes  de  película  internos varíen con la velocidad del fluído, los coeficientes  globales  de transferencia de calor del  interior  del  recipiente  de  proceso hacia el aire de los alrededores, tienden a ser del  mismo  orden, tanto en el modelo como en  el  prototipo,  siempre  y  cuando  se aplique la misma resistencia por unidad de área a ambos  mediante, por ejemplo, el uso de igual espesor del material aislante .

     Una segunda consideración es que las pérdidas de calor superficial de una vasija de proceso experimental puede  ser  ajustado  en  la práctica  independientemente  de  las  condiciones  de   flujo   y temperatura interiores, producto del efecto  predominante  de  los coeficientes de transferencia de calor externos  en  ese  proceso.

     Esto se puede lograr,  ya  sea  rodeando  el  recipiente  con  una camisa o doble pared a través de la cual pueda circular un medio adecuado para el enfriamiento o calentamiento o bien  mediante  el suministro de  calor  producido  por la  electricidad a través  de resistencias eléctricas, se puede controlar la rázon de cambio  de la pérdida de  calor  al  exterior   a  cualquier  valor  deseado, llegando incluso hasta cero.

     La utilización de la camisa o de la resistencia  de  calentamiento para un recipiente caliente de pequeña escala, se suele  denominar una operación adiabática, aunque su   verdadera  función  no  es mantener una verdadera condición adiabática,  sino  poder  reducir las pérdidas de calor por unidad de capacidad en el modelo a   los mismos valores que se tendrían en la gran escala. No obstante,  un equipo de planta a gran escala es tan cercano  a  las  condiciones adiabáticas  que  la  semejanza  se  logra  generalmente  con  una xfaproximación a las condiciones adiabáticas en el modelo.

     También hay que considerar que hay tres casos  en  los  cuales  un modelo a escala puede tener lo que se denmomina semejanza  térmica inherente, o sea que el flujo de calor por unidad de área  externa que se requiere es el mismo tanto  en  el  prototipo  como  en  el modelo, y  no  se  requiere,  por  tanto   utilizar  chaquetas  ni resistencias de  calentamiento,  sino  solamente  tener  el  mismo espesor de aislamiento que en el prototipo. Esos   casos  son  los siguientes:

1.-Régimen térmico. Modelos de sistemas de transferencia de  calor   en los cuales los mecanismos controlantes con la radiación  y la   conducción a través de las paredes del recipiente.

2.-Régimen químico. Modelos de sistemas de reacciones heterogéneas   con  interfase fija, en  los  cuales  las  superficies  internas   (granos de catalizador, etc) son  geométricamente  semejantes  y   están en la misma relación  de  escala  que  los  recipientes de   reacción, de forma tal que la actividad  superficial   permanece   constante.

3.-Régimen  dinámico. La  semejanza  térmica  inherente  bajo  un   régimen dinámico es imposible tanto para los  modelos  como para   los  elementos,  pero  puede  ser  alcanzada  por  un  modelo de   elemento de proporciones adecuadas.

     Para la semejanza bajo condiciones de régimen dinámico, la pérdida de calor superficial por unidad de área en el modelo a  escala  se requiere que sea L veces más grande que en el prototipo, siendo  L la relación o factor lineal de  escala  del  prototipo  al modelo. Cuando se opera a temperaturas por encima de la atmosférica,   ese tipo de modelo necesitará ser enfriado  externamente, por  ejemplo por una chaqueta de enfriamiento por  agua.

     Por   otra   parte,  en  el  caso  de    un   elemento   semejante dinámicamente, se requiere que pierda menos calor  por  unidad  de área  externa  que  el  prototipo  .  Para  recipientes  de  forma elongada, en los cuales la pérdida  de  calor  a  través  de   los extremos es despreciable, la pérdida de calor por unidad  de  área del elemento será     veces la  del  prototipo,  siendo   A  la relación de sección, o sea la relación de la  sección transversal del prototipo a la del elemento.

     Evidentemente debe haber un  conjunto  particular  de  modelos  de elementos  en  los  cuales  los  requerimientos  conflictivos   se cancelen  y posean por lo tanto  semejanza térmica inherente. Para recipientes elongados este es el caso cuando :

                                                       (2-15)

donde U es la relación de los coeficientes de  calor  globales  de las superficies  fronteras  para  el  prototipo  y  el  modelo  de elemento. Generalmente U   se puede tomar  como  la  unidad  y  la relación queda como :

                                                            (2-16)

     Esa  misma  relación  se  mantiene  para   procesos   operando   a temperaturas por debajo  de  la  atmosférica  en  los   cuales  el efecto  de pared considerado es la transferencia de calor hacia el interior del recipiente.

     La relación requerida en el elemento modelo es posible sólo cuando el aparato tiene una estructura múltiple o de red con una relación alta de superficie interior a superficie frontera.Por ese  motivo, en el caso de recipientes planos, no se puede lograr  la  semejana térmica inherente bajo un régimen dinámico puro.

     En todos los casos analizados de semejanza térmica inherente,   se considera que los sistemas reaccionantes, para los  propósitos  de semejanza, están  limitados por las superficies  internas  de  los recipientes contenedoras.  El espesor de la pared  del  recipiente no está sujeta a las requerimientos de semejanza geométrica y debe ofrecer, en unión con cualquire  aislamiento externo,   la   misma resistencia térmica por unidad de área, tanto en el   modelo  como en el  prototipo.  En  el  caso  de  un  recipiente  metálico  sin aislamiento,  la  principal  resistencia  térmica  radica  en   la película de aire del exterior del recipiente y por ello el  efecto del espesor de la pared puede en general despreciarse.

     En sistemas para los cuales la semejanza inherente no es  posible, las condiciones térmicas en las fronteras  deben  ser  controladas artificialmente,  siendo el  mejor  método  de  control  para  las pérdidas de calor  superficial  desde  recipientes  calientes,  el empleo de resistencias eléctricas mediantes alambres  enrrollados. Estos alambres deben colocarse preferentemente dentro del material de aislamiento, aproximadamente en la mitad  entre  la  pared  del recipiente y la superficie del aislante y las vueltas sucesivas de cable que se requieren para alcanzar  la  longitud  necesaria,  se deben acomodar en  el  espacio  comprendido  entre  la  mitad  del aislante y la superficie del recipiente.

     La potencia que se  debe  suministrar  al  enrrollado  se  calcula apartir de un estimado generoso de  la  pérdida  máxima  de  calor desde el enrrollado, a través de la  capa  exterior  de  aislante, asumiendo que el enrrollado está a la  misma  temperatura  que  el recipiente. Unido a este dato y  conociendo  la  resistividad  del material del alambre de enrrollado, se calcula entonces la sección transversal del alambre de resistencia.

     La regulación del calor suministrado a la resistencia  se hace por réostatos en serie u otros procedimientos  de  control  similares. Para asegurar  el  mantenimiento  de  condiciones  adiabáticas  es suficiente tener un termopar dentro del recipiente caliente y otro dentro del aislante, entre la pared del recipiente y el enrrollado de resistencias,ajustándose la corriente que circula de forma  tal de mantener las dos temperaturas iguales.

     Cuando las pérdidas de calor deben ser controlados para  un  valor bajo definido, es mejor tener  los  termopares  sensitivos  en  el exterior del recipiente,  uno adyacente a  la  pared  y  otro  muy cercano al enrrollado.  Conociendo el espesor  de  aislante  entre ambos termopares y la resistividad  del  material   aislante,   se puede  calcular  exactamente  el  flujo  de  calor   mediante   la diferencia de temperatura entre ambos .

     Cuando la temperatura interna varía a lo largo de la longitud  del recipiente,  el enrrollado de resistencia  se hace  comúnmente  en secciones, cada  una de las cuales  se  regula  por   un  reóstato separado y se controlan por temopares separados también .

     Las  chaquetas  al  vacío,  utilizadas  en   ocasiones   para   el aislamiento térmico en el laboratorio, como  es  el  caso  de  los frascos  de  Dewar  ordinarios,  son  problemáticas  y   raramente efectivas en la escala de las  plantas  pilotos  ya  que  un  buen aislamiento no se obtiene a menos que la presión  absoluta  en  la chaqueta sea extremadamente baja, lo cual es difícil  de  mantener con equipamiento ordinario de ingeniería debido  principalmente  a los salideros por juntas, la porosidad del metal y soldaduras y la vaporización de trazas de humedad y aceite. Además una chaqueta al vacío no disminuye grandemente las pérdidas o ganancias  de  calor por  radiación  por  lo  cual  se  necesita  utilizar  superficies metálicas altamente reflectivas con este propósito.

     Un ejemplo del uso de un sistema de regulación de  la  pérdida  de xf     calor a través de las paredes de un recipiente que  posibilita  el cálculo  exacto  y  su  control,  se  tiene   en   los   reactores calorímetricos del típo del RC-l de la Mettler  (16),  los  cuales constan de un recipiente de reacción de 2L/s (escala  banco),  con una chaqueta a través de la cual se circulan  2L/s  de  aceite  de silicona (Figura 2.7 ).

    El sistema de circulación de aceite se compone de dos  partes.  En la primera el aceite se mantiene aproximadamente 3 por  encima  de la temperatura deseada del reactor, Tr y en la segunda  parte,  el aceite es enfriado a una temperatura por lo menos 5 por debajo  de Tr. Los  dos  circuitos  de  aceite  se  conectan  por   una   válvula electrónica,  la que permite una mezcla del aceite caliente " con el "frio",  de manera tal que la temperatura del  que  pasa  a  la camisa del reactor sea la necesaria para mantener  la  temperatura del reactor, Tr, constante.

 

  Figura 2.7 Diagrama simplificado del Reactor Calorimétrico RC-1 de la Mettler

      Midiendo continuamente Tr y Tj se tiene, en cualquier instante, el calor intercambiado entre el contenido del reactor y  la  chaqueta de enfriamiento por aceite, (qf), según la ecuación :

            qf = UA(Tr - Tj )                                  (2-17)

     Donde U es el coeficiente global de transferencia de  calor  en  W k-1  m-2  y A² es la superficie de  transferencia  de  la  camisa  del reactor en m2 .

     Si el calor generado por la reacción disminuye, la temperatura  de la  chaqueta  de  aceite  Tj  se  disminuye  automáticamente  para mantener  Tr  constante,  mediante  el  ajuste   de   la   válvula electrónica automática de la mezcla, que  es  controlado  por  una computadora IBM compatible, la que asegura la evaluación  continua del flujo de calor producido por la  reacción,  incluso  empleando modelos más sofisticados del  flujo  de  calor  a  través  de  las paredes del reactor .

     Un calentador eléctrico  calibrado  instalado  en  el  reactor  se utiliza para determinar el coeficiente de proporcionalidad (UA), o sea el producto del  área  de  transferencia  por  el  coeficiente global  de  transferencia  y  los  modelos  matemáticos  empleados permiten  medir  los  cambios  de  las  características    de   la transferencia de calor que puede resultar de las modificaciones de viscosidad,  volumen de mezcla en reactor  y  otras  variables  de operación (14).

     Este tipo de reactor puede ser operado también en forma isotérmica o isoperibólica. En el modo isoperisbólico se controla la temperatura de la camisa de enfriamiento y corresponde a la forma de trabajar de los reactores discontinuos de la industria..En el caso de  su  uso  en  la  biotecnología  se utiliza preferentemente el   modo   de   operación isotérmico que no daña los microorganismos (16) (Figura 2.8).

 

2.3.7 Catálisis superficial

    Lo más importante sobre los efectos catalíticos  superficiales  es que deben ser detectados en la escala pequeña y considerados en el diseño de la planta a escala completa. Muchas reacciones  químicas aparentemente homogéneas son en alguna medida catalizados por  las paredes de los recipientes de reacción y por ello darán diferentes rendimientos en el recipiente grande, bajo  similares  condiciones de  temperatura   y   tiempo,   debido   a   la   menor   relación superficie/volumen (15).

Figura 2.8 Modos de operación del Reactor Calorimétrico (isotérmico, isoperibólico y adiabático) (De Catálogo Metler).

     Los efectos  de  la  superficie  adicional  en  el  recipiente  de medición , son usualmente investigados en el  laboratorio.  Cuando se descubra un efecto catalítico superficial apreciable,  se  debe pensar en utilizar alguna forma de recipiente de reacción empacada que permite una mayor superficie interior que la  que  normalmente se utilizaría en un  recipiente normal, de forma tal que se  puede escalar de acuerdo con los principios señalados  anteriormente  en este capítulo.

     Las dificultades se presentan cuando se tiene recipientes simples, a los cuales es geométricamente  imposible  proveer  una  relación superficie/volumen tan baja en el laboratorio como  en  la  escala grande, y esto puede hacer necesario cubrir la superficie interior del recipiente de laboratorio con alguna sustancia inactiva,  para suprimir los efectos de la catalísis superficial. Por  ejemplo  la reacción entre el etileno y el bromo se cataliza por la superficie de cristal , pero cesa prácticamente cuando el  cristal  se  cubre con cera parafina.

     El conocido efecto de las dimensiones del recipiente en el  tamaño de las partículas producidas por las reacciones  de  precipitación es posiblemente semejante a los efectos de catálisis  superficial. Para igualdad de otras condiciones, los  recipientes  de  reacción más grandes tienden a dar precipitados más fácilmente  filtrables, por lo que constituye uno de los pocos efectos de frontera que son favorables en el proceso de escalado      

 


Capítulo 3

ALGUNAS APLICACIONES DEL ESCALADO EN LA INDUSTRIA QUÍMICA.

 

     Se han seleccionado para las aplicaciones, dos tipos de equipos de amplio uso, no solamente en la Industria Química sino también en las demás industrias, incluyendo la Biotecnológica. Ese es el caso, por ejemplo, de los tanques con agitación mecánica, los cuales sirven de base a los fermentadores más empleados en la Biotecnología, los fermentadores tipo tanque agitado.

      Los reactores, por otra parte, constituyen los equipos fundamentales de la Industria Química, pero los procedimientos desarrollados para su escalado resultan comunes en gran parte, con los procedimientos de escalado de los reactores enzimáticos, de gran desarrollo en la Industria Biotecnológica actual.

       No obstante limitarse el estudio a dos tipos de equipos, la complejidad y amplitud del proceso de escalado impiden que incluso éstos puedan ser abordados en su totalidad, por lo cual se ha hecho énfasis en los aspectos fundamentales y en los procedimientos que permitan su aplicación en otras condiciones y a otros equipos.

3.1 ESCALADO DE TANQUES CON AGITACION MECÁNI-CA

3.1.1 Introducción.

     La agitación de fluidos se emplea ampliamente  en  las  industrias química y bioquímica, existiendo gran diversidad  de   métodos  de agitación y por ello la selección de los mismos y de los  aparatos para ejecutarlos, dependen del objetivo que se quiere lograr y del estado de agregación de los materiales a agitar. De esos  métodos, los dos más  empleados  para  la  agitación  de  fluidos  son:  el mecánico, mediante  agitadores  de  diferentes  estructuras  y  el neumático, con aire comprimido o gas  inerte,  aunque  se  emplean también otros métodos como la agitación en tuberías y la agitación mediante toberas y bombas (13, 17).

     En este capítulo se estudiará el  método  de  agitación  mecánica, mediante agitadores de diversos tipos (propelas, paletas,  anclas, etc.) instalados en tanques, los que se utilizan en  la  industria principalmente para (17,24):

1-        Mezclado de polvos sólidos o pastas

2-        Suspensiones de sólidos en líquidos

3-        Dispersión o emulsificación de líquidos

                inmiscibles

4-        Solución de sólidos, líquidos o gases

5-        Procesos de reacciones químicas

     Además cualquiera  de  las  operaciones  a  considerar  puede  ser acompañada de calentamiento o enfriamiento en el tanque mezclador, por lo cual se harán consideraciones especiales  para los procesos de agitación y mezclado en los cuales la  transferencia  de  calor juega un papel importante.

     De las operaciones mencionadas, el mezclado de sólidos o pastas es más bien una operación mecánica, por lo cual en este  capítulo  se tratarán solamente las otras  cuatro  operaciones,  las  que  caen totalmente dentro del campo de la hidrodinámica (13).

     Con   frecuencia   en   un   tanque   agitado   pueden   cumplirse simultáneamente varios de los procesos señalados. Por ejemplo,  en la hidrogenación catalítica de un líquido,  el  gas  hidrógeno  es dispersado a través  del  líquido,  en  el  cual  se  mantienen en suspensión  las  partículas  sólidas   del catalizador,   siendo eliminado al mismo tiempo el calor producido por la reacción,  por medio de  un  serpentín  o  camisa  de  refrigeración  (17).  Esto demuestra que resulta imprescindible determinar en  cada  caso  el régimen que predomina en el equipo y el  escalado  se debe realizar considerando ese régimen predominante.

3.1.2 Criterios de semejanza y ecuaciones de escalado.

     En el caso de los tanques con agitación  mecánica,  se  aplica  la ecuación generalizada de la  hidrodinámica,   para  el  movimiento estacionario  forzoso  del  líquido   y   mediante   el   análisis dimensional, se obtiene (13):

 

                   Eu  = (Re, Fr, S1, S²... )     (3-1)

 

donde  S1 y S² son los factores de forma que caracterizan el tanque en cuestión, los que se cancelan cuando se  comparan  dos  tanques geométricamente semejantes.

     Además, en  los  casos  en  que  se  agitan  juntos  dos  líquidos inmiscibles, un líquido se dispersa como gotas en el seno del otro y la tensión superficial en la intefase entre   los  dos  líquidos juega un papel relevante en el consumo de potencia, y en ese  caso el número de Weber (We) debe incluirse en el criterio.

     El número de Froude (Fr), es una medida de la relación  entre  los esfuerzos de inercia y los de gravedad e interviene en la dinámica de  los  fluidos  siempre  que  exista  un  movimiento  de   ondas importante sobre la  superficie  de  los  mismos   y  por  eso  es especialmente importante en el diseño del casco de los buques.  En un tanque agitado, operando en flujo laminar o  en  el  turbulento pero con tabiques  deflectores  suficientes  o  con  una  posición excéntrica del eje del agitador,  no  se  forman  vórtices  en  la superficie del fluído y se puede despreciar entonces la influencia de la gravedad, por lo cual se elimina el  número  de  Froude  del criterio de semejanza (25).

     Teniendo en cuenta la importancia que el consumo de potencia tiene en los tanques con agitación mecánica, se  sustituye la diferencia de la presión por la potencia, en el número  de  Euler (Eu)  y  se transforma el mismo en el número de  Potencia  (Np),  quedando  la expresión del criterio de semejanza como (13):

Np = Ý (Re)                                   (3-2)

    Para realizar el escalado mediante la  ecuación  criterial  (3-2), sólo en muy pocas ocasiones se considera el régimen dinámico  puro y por ello no es usual escalar empleando el criterio  de  mantener constante el número de Reynolds, ya que esa consideración  conduce generalmente a condiciones no económicas (22).     

     En la práctica existen ocasiones donde, además de  las  relaciones entre la potencia consumida por el agitador y las  características del fluido, son importantes aspectos relacionados con la rapidez y calidad del mezclado y en ese caso  aparecen  otras  variables  no consideradas en las ecuaciones criteriales  (3-1)  y  (3-2)  y  se necesitan aplicar por lo tanto, otros criterios de escalado (Figura 3.1 ).

Figura 3.1 Número de Potencia en función del Reynolds para varios tipos de impelentes (Tomado de Chisti y Moo-Young, 1991)

     Se conoce que  la capacidad de bombeo de un agitador dentro de  un tanque es proporcional a ND  y con esa base se define el número de Flujo (Nq), número adimensional que depende del  número  de  hojas del agitador, de la relación entre el ancho de las  paletas  y  su diámetro y de la relación entre el diámetro  del  impelente  y  el diámetro del tanque, o sea de las diferentes variables geométricas que caracterizan un agitador (4,22).

     Se tienen datos de valores de Nq entre 0.4 y 0.5 para propelas con paso igual al diámetro y valores entre 0.7 y 29 para  turbinas  de flujo axial, de acuerdo con las  dimensiones  geométricas  de  los impelentes. Para el caso particular de ls  turbinas   axiales  con ancho de hojas igual a 0.14 el diámetro del impelente, se tiene la información completa de la variación de Nq en función  del  número de Reynolds, para relaciones D/T entre 0.25 y 0.5 (3).

     Estos dos tipos de impelentes (propelas y turbinas  axiales),  son muy utilizados en la industria química para sistemas muy sensibles al flujo, y para ellos el número Nq tiene  una  gran  importancia, por lo que la existencia de esos datos es de gran utilidad para el escalado  de  ese  tipo  de  mezcladores.  No  obstante,   existen ocasiones en que este número resulta de importancia  también  para otros tipos  de  impelentes  y  en  esos  casos,  la  carencia  de información  disponible  hace  imprescindible  la  realización  de experimentos para obtener los datos necesarios.

     La expresión del número de flujo queda como:

                                    (3.3)

     O sea que para un impelente dado, el flujo movido por el agitador es directamente proporcional a la velocidad de rotación del mismo. Además el coeficiente de proporcionalidad depende del tipo de impelente y de su relación D/T y Dw/D. Despejando entonces se obtiene:

                                   (3.4)

     También el nùmero de Potencia se relaciona con la velocidad y el diámetro del impelente, cuando en régimen turbulento se hace independiente del número de Reynolds, quedando (22, 23):

                                 (3.5)

     De donde, despejando la potencia, se obtiene:

                                  (3.6)

     Esta expresión permite analizar el  efecto  de  la  variación  del diámetro del impelente y la velocidad de rotación, para un consumo de potencia constante, lo que resulta muy útil para  el  escalado, como se verá posteriormente. De esta expresión se llega también a la relación  entre  el  flujo que mueve el agitador y la carga,  a  potencia  constante,  o  sea (22):

                                   (3.7)

     Otros elementos importantes en el funcionamiento del un  agitador, son el tiempo de mezclado y el de  circulación. Hay ocasiones en que los mismos tienen una importancia considerable y  por  ello se ha estudiado por  diversos  autores  lo  que  ocurre  con  esos tiempos durante el escalado.

     Se ha demostrado que la capacidad de bombeo por unidad de  volumen (Q/V) es una buena indicación del tiempo  de  circulación  de  una partícula en un tanque pequeño (hasta 200 litros  aproximadamente) y que es mayor que Q/V en un tanque grande (hasta unos 4 m ). A su vez el tiempo de mezclado es en general proporcional al tiempo  de circulación, aunque esta relación no está totalmente clara, ya que hay ocasiones en que el fluido recorre trayectorias en  un  tanque sin que se produzca apenas mezcla con el resto del  fluido  en  el recipiente (22). 

     No obstante, normalmente se acepta la relación entre el tiempo  de circulación, el tiempo de mezclado y la capacidad  de  bombeo  por unidad de volumen (Q/V) y por ello se toma como  indicador  de  la igualdad de tiempos de circulación y de mezclado, la  igualdad  de la relación (Q/V) (23).

     Además de lo ya analizado se debe considerar también el  gradiente de velocidad que sufre el fluido a lo largo del eje, el cual varía en realación al tamaño  relativo del  impelente  con  respecto  al tanque.  De  un  perfil  de  velocidad  en   un   tanque   agitado mecánicamente  se  puede  obtener  (Figura  3-2),  el  valor   del gradiente  de  velocidad,  cuya  pendiente se  denomina  razón  de cizalladura, medida en s   y que no es más que la medición  de  la variación de la velocidad con la altura.

Figura 3.2 Perfil de velocidad en un tanque agitado (De Oldshue, 1969)

     Multiplicando la razón de cizalladura en  un  punto  dado  por  la viscosidad del fluido se obtiene la tensión de cizalladura  (shear strees), la cual es en última  instancia  la  responsable  de  los fenómenos que ocurren en el fluido como son la dispersión  de  las burbujas y gotas y la reducción de tamaño de las partículas.

     Un incremento de la viscosidad del fluido, por ejemplo de 1  a  10 mPs, produce un esfuerzo de cizalladura  o  esfuerzo  cortante  10 veces mayor, a partir de una misma razón de cizalladura  alrededor del impelente, lo que puede  tener  un  efecto  apreciable  en  el trabajo del tanque agitado (22).

     Como la razón de cizalladura varía considerablemente de un punto a otro en todo el tanque  agitado,  es  conveniente  diferenciar  al menos cuatro valores de esa razón: la máxima y la promedio  en  la zona del impelente, la promedio de todo el  tanque  agitado  y  la mínima en la zona cizalladura promedio, varía en función de la más remota y de menor velocidad en el patrón  de flujos del tanque.

     Se ha podido comprobar que la razón de velocidad del agitador (N), mientras que la razón de cizalladura máxima en la  zona  del  impelente  depende  de  la velocidad periférica del mismo o lo que es igual, del producto ND. La carga (H), se relaciona también con la  razón  de  cizalladura, siendo proporcional a la raíz cuadrada de dicha razón.

     Estas relaciones, unidas a la  expresada  en  la  ecuación  (6.7), muestran que un  impelente  grande,  operando  a  baja  velocidad, produce un flujo  alto,  una  baja  carga  y  una  baja  razón  de cizalladura. En el otro extremo, un impelente pequeño,  moviéndose a alta velocidad, desarrolla una alta razón de cizalladura y   una baja capacidad de bombeo (Figura 3.3).

Figura 3.3 Variación de el esfuerzo cortante y la carga en el escalado de un tanque agitado con igual P/V (De Oldshue, 1969).

 

3.1.3 Variantes de escalado para los tanques con agitación mecánica.

     El escalado conlleva consideraciones de dimensiones, velocidades y fuerzas. Si el parámetro final de interés  es  una  de  esas  tres variables,  sólo  se   necesita   el   uso   de   las   relaciones adimensionales que las contemplen. Por ejemplo si  el  interés  es con la potencia, ésta se relaciona fundamentalmente con el  número de Reynolds  (ecuación  3-2)  y  en  la  zona  turbulenta  con  la velocidad de rotación y el diámetro del impelente (ecuación 3-6).

     Si el proceso de agitación o mezclado  depende  por  ejemplo,  del esfuerzo de cizalladura en  el  fluido,  hay  que  utilizar  otras relaciones como la de la razón de  cizalladura  con  la  velocidad  periférica del impelente,  números adimensionales como el de Flujo (Nq) y propiedades del fluido como la viscosidad. La relación que hay que  mantener  de  un  número  adimensional  o criterio durante el escalado,no tiene que ser  necesariamente constante.  Es  mejor  hablar  de  la  propiedad que debe ser controlada durante el escalado y preguntarse, ¿Cuál debe  ser  la relación entre el tamaño del tanque y  el  parámetro  a  controlar para obtener un resultado esperado del proceso en  estudio?  (21).

Tabla 3.1. Variantes de escalado ascendente  (scaleup) de un tanque

 con agitación mecánica (tomado de Oldshue, 1969)

 

       No.

Símbolo

Escala

Piloto (20L)

Escala Industrial (2500L)

 

Variantes con igual D/T.Criterios de Escalado

Variante mayor D/T

 

 

 

(P/V)

N

ND

Re

 

1

T

1.0

5.0

5.0

5.0

5.0

5.0

2

V

1.0

125

125

125

125

125

3

D

1.0

5.0

5.0

5.0

5.0

7.8

4

(D/T)

0.33

0.33

0.33

0.33

0.33

0.52

5

N

1.0

0.34

1

0.2

0.04

0.16

6

P

1.0

125

3125

25

0.3

125

7

(P/V)

1.0

1.0

25

0.2

0,001

1.0

8

Q

1.0

42.5

125

25

5.0

125

9

(Q/V)

1.0

0.34

1.0

0.2

0.04

1.0

10

ND

1.0

1.7

5.0

1.0

0.2

1.0

11

Re

1.0

8.5

25

5

1.0

3.9

     Si la relación que se obtiene es mantener el parámetro  constante, mucho mejor, porque con ello se  simplifica  el  procedimiento  de escalado, pero no siempre tiene que ocurrir preisamente así  y  en ocasiones la variación del parámetro durante el escalado puede ser mucho más compleja. Las principales relaciones  que  se  deben  controlar durante  el escalado de un tanque agitado mecánicamente, si  se  considera  la semejanza  geométrica plena son: el  número    de  Reynolds    (Re),      la potencia  por  unidad  de  volumen(P/V),  la capacidad de bombeo por unidad  de  volumen  (Q/V),  la  velocidad  periférica  (ND) y el  coeficiente  de  transferencia  de masa  para  la fase líquida (klal). En caso de apartarse de la semejanza geométrica,  hay  que considerar también las relaciones diámetro de impelente/diámetro de tanque (D/T) y ancho de impelente/altura de impelente (Dw/D).

   Para tener una idea completa de las  posibilidades  que existen durante  el  escalado  de  un  tanque  agitado,  se verán distintas variantes,manteniendo  en  cada caso una de las relaciones constantes, para  analizar  más cómodamente su efecto en las otras relaciones       

.A-Número de Reynolds constante.

    La ecuación de escalado a utilizar es:

                                          (3-8)

     Con este criterio se obtiene un consumo de potencia muy bajo en el prototipo y prácticamente casi todos los demás  indicadores  bajan demasiado (Tabla 3-1) y no constituye por lo tanto una herramienta práctica del escalado (21, 22) Esto se debe a que en  la  mayoría de los casos,   lo  más  importante  no  es  el  patrón  de  flujo asegurado por   la   semejanza   dinámica   total,   sino   otras consideraciones prácticas.

 

B-Igual capacidad de bombeo por unidad de volumen.

     Para determinar la ecuación criterial se   parte  de  la  ecuación (3-4) dividida por el volumen.

     Se tiene en cuenta que el Nq varía  inversamente  proprocional  al incremento de la relación D/T y se obtiene,  para  prototipos  con  igual o mayor D/T que el modelo:

y para igual relación Q/V en el modelo y en el prototipo, la expresión se reduce a:

o lo que es igual:

                             (3-10a)

 

y para impelentes semejantes geométricamente,  (D/T)  =  constante y queda:

                                         (3-10b)

      Esta igualdad permite asegurar un tiempo de mezclado igual  en  el modelo y en el prototipo, pero  provoca  un  incremento  demasiado grande en la potencia  necesaria   en  el  prototipo,  lo  que  no resulta práctico y por ello, casi la totalidad de los  tanques con agitación a gran escala tienen tiempos de mezclado más grandes que los equipos a pequeña escala, semejantes geométricamente. La única posibilidad de lograr un tiempo de mezclado en el  tanque grande, igual o al menos más cercano al  del  tanque  pequeño,  es modificando las relaciones geométricas del impelente, como se verá más adelante, ya que con un incremento de la relación D/T se puede lograr una mayor relación Q/V con menor N y por lo tanto con menor potencia (21, 22).

 

C-Igual potencia por unidad de volumen.

     Las ecuaciones de escala a aplicar son:

                                                (3-11)

                                            (3-12)

 

y de ahí se obtiene:

                                 (3-13)

 

     Esta es una de las mejores opciones para el escalado de un  tanque con  agitación  mecánica.  Se  ha  demostrado  que  es  el  mejor procedimiento   para   escalar   las   operaciones   de   mezclado líquido-líquido, cuando el objetivo es  lograr  igualdad  de  área interfacial por unidad de volumen de una mezcla líquida y  también es aplicable a la dispersión de sólidos en líquidos (28).

     En otros muchos casos se acostumbra  también  a  seleccionar  este criterio de igual potencia por unidad de volumen, lo que lleva  en muchas ocasiones a  escalados  conservadores,  aunque  siempre  el tiempo de mezclado que se obtiene en el  prototipo  resulta  mayor que en el modelo, lo que se ha tenido en cuenta en  los  casos  en que el  tiempo  de  ciclo  resulta  importante  (22).  Esto  puede ocurrir, por ejemplo, cuando el resultado del proceso de agitación es una función del número de veces que el material  se  circula  a través de la zona de alta cizalladura.

 

D-Velocidad periférica constante.

     La  velocidad  periférica  constante  significa  igual  razón   de cizalladura máxima en  la  zona  del  impelente  y  también  igual intensidad de mezclado (NI). Las  resultados  obtenidos  con  este procedimiento,  para  tanques  semejantes   geométricamente,   son bastante pobres en comparación con los obtenidos, por ejemplo, con el criterio de igual potencia por unidad de volumen. No  obstante, este criterio se emplea cuando es  un  requisito  del  sistema  no exceder un esfuerzo de cizalladura máximo, como   es  el  caso  de algunos procesos biotecnológicos  en  que  los  microorganismos  o células involucrados son muy sensibles a este parámetro.

     Aquí también cabe el recurso de obtener esa condición sin mantener a semejanza geométrica, o sea variando la relación  D/T  como  se verá posteriormente, con lo  cual  se  mejoran  sensiblemente  los resultados (4, 20, 22). Las ecuaciones de escalado a considerar son:

    NL  =  Constante                            (3-14)

o lo que es igual:

                                 (3-15)

E-Igual coeficiente de transferencia de masa en el líquido.

     Este  es  el  procedimiento   recomendado   cuando   el   objetivo principal del tanque agitado es disolver un  gas  en  un  líquido, como es el caso de los  fermentadores  industriales  (1,  7,  21). Cuando se aplica en esos  casos el criterio de igual P/V, se  está haciendo un escalado conservador, empleándose más potencia  de  la necesaria y sometiendo al  medio  a  un  esfuerzo  cortante  mayor (Tabla 3-1).

      Si se realiza el escalado con el  criterio  de  igual coeficiente de transferencia (klal), se logran mejores valores  en muchos  indicadores, para  este  tipo  de  tanque  agitados.   Las ecuaciones a emplear son:

                      3-16

y de la misma se obtiene:

     3.17

 

F-Variando la relación D/T.

     Aunque  las cinco  primeras variantes analizadas han sido con  una relación D/T constante de 0.33 (Tabla 5-1), en varias ocasiones se ha  mencionado  la  posibilidad  de  resolver   algunas   de   las limitaciones de los distintos criterios de  escalado,  abandonando la semejanza geométrica  estricta,  variando  fundamentalmente  la realción D/T. En este caso se analiza precisamente lo  que  ocurre cuando se adopta esa variante y se toma una relación D/T mayor  en el prototipo.

      Para analizar esta variación se tomará como ecuación criterial  la (5-6) y se mantiene constante el consumo total de potencia  y  por ende la relación (P/V). Se  aumenta  también  convenientemente  el   diámetro del impelente y se reduce la velocidad de rotación  N  de forma tal que se alcance un producto ND igual al del  modelo,  con lo que se obtiene además igual esfuerzo cortante en ambas escalas.

     Como resultado,  a  pesar  de  la  reducción  de  N,  el flujo  se incrementa por el aumento  del  número  de  flujo  Nq  y  para  la relación D/T seleccionada en el ejemplo (0,52) se mantiene también la misma relación (Q/V),o sea iguales  tiempos  de  circulación  y mezclado  por  lo  cual  se  mejoran  apreciablemente  todos   los indicadores del escalado.

 

G-Otras variantes posibles de escalado.

     Aunque  con  los  ejemplos  analizados  no  se  agotan  todas  las posibilidades, se logra una idea bastante clara del comportamiento de los diferentes parámetros  en  las  opciones  de  escalado  más empleadas. Quedan algunos casos específicos como  es  el  de   los tanques  agitados  empleados  como  reactores,   para   reacciones químicas rápidas y competitivas, en que hay que analizar tanto los fenómenos de mezclado en  su  conjunto  (macromezclado),  como  el micromezclado y por ello hay que  considerar  otras  posibilidades como son la variación de la posición y forma de la alimentación de los reactivos y el empleo de variantes  con  circulación  externa  Esto hace más complejo el escalado y  requiere  de  una  cuidadosa experimentación previa en cada caso (12).

     También están los casos de los procesos muy  sensitivos  al  flujo donde se pueden aplicar el criterio de Intensidad de Mezclado (NI) y apartarse por completo de la  semejanza  geométrica,  utilizando los gráficos disponibles para el NI, por lo menos en los casos  en que se emplean las turbinas de flujo axial (3). Se ha recomendandado además recientemente por Obot (20), el empleo de una llamada “Ley Friccional de los Estados Correspondientes” y  de números reducidos de Reynolds, de Flujo  y  de  Potencia,  lo  que permite seleccionar en cada caso, la relación D/T más  conveniente para  el  escalado,  corroborando  lo  antes  planteado  sobre  la conveniencia de apartarse de la semejanza geométrica estricta.

3.1.4 Relaciones de escalado  para  la  transferencia  de  calor  en tanques agitados mecánicamente.

     La agitación  se  emplea  en  muchas  ocasiones  para  mejorar  la tranferencia de calor, mientras que en otras la  transferencia  de calor acompaña a  otra  operación  de  mezclado,  que  es  la  que controla la selección del mezclador y por tanto el escalado.

     En los casos en que el objetivo principal es la  transferencia  de calor hay que distinguir entre los llamados impelentes  abiertos que son los que operan a  cierta  distancia  de  las  paredes  del tanque, como las propelas y las turbinas  y  los  que  operan  muy cercanos a la pared, normalmente con una separación de menos de un 5% del diámetro interior, como las anclas y los helicoidales.

     Para el intercambio de calor en fluidos  muy  viscosos,  se  deben emplear los impelentes que funcionan muy cercanos a la  pared  del recipiente, ya que los impelentes  abiertos  (turbinas,  propelas, etc) no son capaces de  lograr el movimiento completo  del  fluido viscoso en todo el  volumen  del  tanque  y  en  especial  en  las paredes. Esto es sumamente importante cuando lo que se produce  en el  interior  del  recipientes  es  una  reacción  química   entre  productos muy  viscosos  y  se  necesita  controlar  el  calor  de reacción (22).

     Para poder predecir la rapidez de la  transferencia  de  calor  en tanques  agitados,  es  necesario  estimar   el   coeficiente   de transferencia de calor del lado del fluido de proceso (ho) y  para ello se aplican los métodos del Análisis Dimensional, a las ecuaciones de balance de energía  y  flujo  de  calor  y  se obtiene:

                   Nu = j ( Re, Pr )              (3-18)

     Esa expresión se ha desarrollado  para  las  tres  superficies  de transferencia de calor más comunes en los  tanques  agitados:  las chaquetas, los serpentines helicoidales  y  los  tubos  verticales empleados  como  deflectores  (23).  Para  los  tanques   agitados  enchaquetados se tiene:

  (3-19)

 

Para  los serpentines helicoidales:

 (3.20)

 

En  este caso el exponente m de término de corrección por viscosidad toma valores entre 0.1 y 1 y se obtiene de:

.Y para los tubos verticales:

(3-21)

     En todos los casos se asume convección forzada,  por  lo  cual  es necesario asegurar que eso se cumpla y aunque se han  desarrollado expresiones para determinar la velocidad mínima del  agitador  con la  cual  se  asegura  la  convección  forzada,  esas   relaciones empíricas tienden a ser válidas solamente para los sistemas en los cuales se desarrollaron. Por esa causa en la mayoría de los  casos es necesario auxiliarse de  diversos  medios,  entre  los  que  se incluye la observación visual, para asegurarse de que  el  sistema se encuentre en convección forzada.

     Para el escalado de los procesos  de  transferencia  de  calor  en tanques agitados, en la mayoría de las aplicaciones en las  cuales controla el flujo, lo más aconsejable es utilizar el  criterio  de mantener constante la  potencia  por  unidad de  volumen, ecuación (8-13), asumiendo la semejanza  geométrica y  de  esa  forma  debe obtenerse aproximadamente el mismo coeficiente de transferencia de calor para el mismo tipo de impelente.

     Ese método se utiliza a pesar de que se conoce  que  es  realmente una aproximación, debido a que el efecto  de  la  potencia  en  el coeficiente de transferencia de calor es realmente pequeño  y  por ello aún un moderado error en el escalado a P/V constante,  tendrá sólo un  mínimo efecto en el coeficiente de transferencia de calor del lado del agitador o mezclador.

3.1.5 Sugerencias a tener  en  cuenta  en  el  escalado  de  tanques agitados.

     Como punto de inicio se debe considerar el criterio de escalar con igual P/V y semejanza geométrica y calcular o estimar la  potencia consumida, la velocidad y el diámetro del impelente y las  razones de  cizalladura,  analizando   posteriormente   con   cuidado   el comportamiento de esos parámetros, de manera de poder juzgar  cuan adecuada o inadecuada puede ser esa variante de escalado.

     Normalmente con eso se obtiene un escalado conservador y se  puede dejar así, exepto  en  algunos  casos  especiales,  como  son  los procesos de dispersión de un gas en el seno de un  líquido,  donde generalmente es preferible emplear la igualdad de coeficientes  de transferencia de  masa  o  en  los  procesos  biotecnológicos  muy sensibles al esfuerzo cortante,  en los cuales se debe asegurar en el escalado que  no  se  sobrepase  el  esfuerzo  cortante  máximo permisible para el caso específico.

      Si no se está en presencia de  esos  casos  específicos,  pero  el análisis de los valores obtenidos con  el  escalado  a  igual  P/V muestra la conveniencia de modificar los valores obtenidos  en  la capacidad de bombeo, tiempo de mezclado o esfuerzo cortante, puede probarse entonces con una variante que se aparte de  la  semejanza geométrica, principalmente en lo relacionado con la relación  D/T, teniendo en cuenta que el  flujo  se  incrementa  y  la  velocidad disminuye cuando se incrementa la relación D/T y que la   potencia P es proporcional al producto QH.

     En el caso particular de un tanque agitado que va a  funcionar  en  una  planta  piloto y servirá de modelo  para  un  tanque  a  gran escala, debe tenerse en cuenta las diferencias que hay  entre  los tanques grandes y los pequeños cuando  se  mantiene  la  semejanza geométrica. El tanque pequeño tendrá siempre  mayor  capacidad  de bombeo, menor tiempo de mezclado, mayor  razón  de  cizalladura  y menor rango de razones de cizalladura que en el tanque grande. 

     Un ejemplo de lo que ocurre  en  tanques  semejantes  geométricamente cuando  se  escala  ascendentemente   manteniendo   constante   la relación(P/V), se muestra en la figura 3-2 (21). Teniendo en cuenta estas variaciones, se recomienda  apartarse  de la semejanza geométrica en lo relacionado con las dimensiones  del impelente y considerar  en  la  planta  piloto  un  impelente  más estrecho, con menor relación D/T y rotando a mayor  velocidad  que el prototipo, de manera tal que se compensen  las  desviaciones  y el comportamiento del tanque piloto se acerque lo más  posible  al prototipo.

     En la tabla 5-2 se muestra un  ejemplo  del  escalado  descendente (scale-down) desde un prototipo industrial de 10 m hasta un tanque piloto  de  13.6  litros,  en   el   cual   se   comparan   cuatro variantes de escalado: igual  relación  (P/V),  incremento  en  la relación (P/V), disminución de la relación D/T y disminución de la relación (Dw/D (21).

    El análisis de los resultados mostrados  en  la  tabla,  están  en concordancia con las diferencias señaladas entre el prototipo y el modelo cuando se escala descendentemente manteniendo constante  la relación (P/V). Cuando se prueba con un incremento  de  (P/V),  se mejoran algo los indicadores, pero se pone de manifiesto  que  por esa vía no  se  pueden  alcanzar  los  resultados  requeridos  sin grandes consumos de energía.

     El cambio de  las  relaciones  geométricas  del  impelente  ofrece mejores resultados. Primero se prueba  con  la disminución  de  la relación (D/T)y después se reduce también la relación (Dw/D) y con

ello se logra igualar la velocidad  periférica  del  prototipo   y disminuir apreciablemente el tiempo de mezclado,  sin  incrementar más aún el consumo de potencia, lo que demuestra las posibilidades

de esta forma de proceder (21).

 

Tabla 3-2  Variantes de escalado descendente  (scale-down)  de  un tanque con agitación  mecánica.  Tomado  de  Oldshue,  1969  (21), traducido y llevado al SI por el autor.

N

Símb.

Ind.

Escala piloto

(13.6 L)

1

P

1.0

0.0014

0.0062

0.0062

0.0062

2

(P/V)

1.0

1.0

1.6

1.6

1.6

3

N

1.0

4.33

5.07

6.4

10.1

4

D

1.0

0.11

1.11

0.097

0.097

5

Q

1.0

0.006

0.007

0.006

0.004

6

(Q/V)

1.0

4.3

5.2

4.3

2.7

7

Re

1.0

0.07

0.08

0.06

0.09

8

(D/T)

0.35

0.35

0.35

0.30

0.30

9

ND

1.0

0.48

0.56

0.62

1.0

10

(Dw/D)

1.0

1-0

1.0

1.0

0.25

 

      Con  relación  al  incremento  de  las  relaciones  (D/T)  en  los prototipos es necesario tener en cuenta que impelentes grandes que se mueven a bajas velocidades requieren un torque  mayor  para  la potencia seleccionada y ésto puede hacer que el reductor requerido sea muy voluminoso y se encarezca el conjunto motriz del agitador, aunque la potencia del motor sea menor (22).

     Todos estos factores deben ser sopesados cuidadosamente durante el proceso de escalado y se deben tener en cuenta, cuando  se  tengan disponibles, las referencias en la literatura sobre el proceso  en estudio,  las  experienias  de  planta  y  as   sugerencias   del vendedor, ya que  no  se  puede  contar  con  reglas  de  escalado universales, dada la  gran  variedad  de  condiciones  que  pueden existir.

     Otro elemento a considerar es que  nornmalmente  no  es  necesario mantener  una  relación  (Z/T)constante  en  la   planta   piloto, pudiendose utilizar, por ejemplo, un impelente único en el eje del agitador,  aún  cuando  en  la  aplicación  comercial  se  empleen múltiples impelentes en el mismo eje, aunque existen algunos casos en que el cambio de  profundidad  puede  causar  problemas  en  el escalado, al variar la presión absoluta en el fondo del recipiente y afectar procesos de despojamiento de gases (22).

     En general en los estudios de escalado en  tanques  agitados,   el ingeniero debe de decidir el tipo de corridas  experimentales  que debe hacer, si no cuenta con suficiente información, así  como  la velocidad aproximada que debera emplear en las pruebas y los datos que necesita obtener de los experimentos. Cada tipo de proceso  es diferente y por ello los métodos y los elementos a emplear en  las corridas  experimentales  pueden  variar  mucho.  No  es   posible relacionar una serie simple  de  experimentos  que  puedan  cubrir todas las posibilidades.

     En muchas  ocasiones  la  necesidad  de  obtener  un  conocimiento detallado del proceso, lleva a convertir el equipo de mezclado  de una  pequeña  instalación  piloto  en  un   equipo   de   mezclado muy ineficiente y no deberá tenerse temor de que esto  ocurra,  si de esa forma es posible acopiar el conocimiento  suficiente  sobre las características del proceso, que permita seleccionar el método de escalado más adecuado. De no hacerse ésto pudiera  pasarse  por alto el efecto de importantes variables durante  las  corridas  de laboratorio y planta piloto, lo que puede provocar  posteriormente que los  resultados  obtenidos  con los  tanques  a  gran  escala difieran sensiblemente de los de pequeña escala  y resulte, por lo tanto, fallido el escalado.

3.2 Escalado de los reactores químicos

    Se comenzará por el análisis de los procesos  de  una  sola  fase, mucho más simples y después se analizarán procesos  de  dos  fases (gaseosa y líquida) y finalmente los más complejos,  los  procesos catalíticos. En cada caso es fundamental analizar  la  importancia relativa  que   los   distintos   fenómenos   (cinética   química, transferencia de masa y transferencia de  calor)  tienen  en  cada tipo de procesos y  la  utilidad  que  tienen  en  cada  caso  los principales  medios  y  métodos  empleados  durante  el   escalado (laboratorio, planta piloto, mockups y modelos matemáticos) (29).

         Se comenzará por el análisis de los procesos  de  una  sola  fase, mucho más simples y después se analizarán procesos  de  dos  fases (gaseosa y líquida) y finalmente los más complejos,  los  procesos catalíticos. En cada caso es fundamental analizar  la  importancia relativa  que   los   distintos   fenómenos   (cinética   química, transferencia de masa y transferencia de  calor)  tienen  en  cada tipo de procesos y  la  utilidad  que  tienen  en  cada  caso  los principales  medios  y  métodos  empleados  durante  el   escalado (laboratorio, planta piloto, mockups y modelos matemáticos) (29).

     Para ejemplificar la aplicación de esos métodos, se analizarán  un grupo de reactores de la industria de refinación de petróleo, pero de hecho los problemas a resolver son similares en  los  distintos tipos de procesos y las metodologías presentadas son por lo  tanto aplicables igualmente  a  otros  procesos  químicos.

 

3.2.1 Escalado de reactores de una sola fase fluida.

     Los reactores de una sola fase, tanto discontinuos como  continuos tubulares  y  continuos  perfectamente  agitados,  presentan   las menores dificultades teóricas para el escalado. En  ellos  no  hay que considerar normalmente los problemas de transferencia de masa, sino solamente los cinéticos y  los  de  transferencia  de  calor, aunque en los  casos  de  elevadas  velocidades  de  reacción,  el mezclado de los reactivos puede complicar el escalado.

 

 Reactores discontinuos.

     El escalado de los reactores discontinuos en  la  mayoría  de  los casos se lleva a cabo multiplicando  el volumen de reacción por el factor de escala y no requiere el  empleo  de  plantas  piloto  ni mockups, aunque la transferencia de calor puede ser importante  en ocasiones.  En  esos  casos hay  que  adecuar  la   capacidad   de transferencia de calor del reactor escalado para que sea capaz  de asimilar el calor producido por la reacción.

      Cuando las reacciones son extremadamente exotérmicas, como  es  el caso de  la  polimerización,  una  insuficiencia  en  el  área  de intercambio  de  calor  puede  causar  inestabilidad   o   incluso explosión, por lo cual para esos casos  los  datos  termocinéticos deben  de  ser  calculados  con  precisión   en  las   etapas   de laboratorio y banco, siendo recomendables  para  ello  el  uso  de reactores calorimétricos automáticos como  el  RC-1  de  la  firma Mettler (14, 15, 33).

Figura 3.4 Reactor calorimétrico de escala de banco (Catálogo firma Metler).

     En todos los  casos,  aún  en  las  reacciones  más  moderadas  es requisito previo conocer suficientemente  los  datos  cinéticos  y termodinámicos de las reacciones involucradas y  en  especial  los datos térmicos, para poder escalar adecuadamente la  transferencia de calor.

 

 Reactores continuos tubulares

     Los problemas de escalado en este tipo de reactores  son  causados también por los fenómenos térmicos, en relación a la transferencia de calor que ocurre a través de la pared del tubo. En lo referente

al interior de los tubos, se debe establecer que exista  el  mismo patrón de flujo, con preferencia turbulento, en la planta piloto y en el prototipo.

     La transferencia de  calor  hacia  el  exterior, por su parte,  es a veces necesario modificarla durante el escalado, siendo un  buen ejemplo de ésto los hornos para  el  craqueo  con  vapor.  En  los experimentos a  pequeña  escala  se  utilizan  normalmente  hornos eléctricos, mientras que en los  hornos  industriales  se  emplean quemadores,  los  cuales  realizan  la  transferencia   de   calor fundamentalmente por radiación.

     Esta transposición se puede realizar en base a  los  conocimientos modernos de transferencia de  calor  y  solamente  si  es  posible predecir las interacciones entre  la  temperatura  y  los  cambios químicos en el sistema, dentro del reactor tubular. Para  ello  es esencial contar con un modelo cinético del  sistema  de  reacción, aunque sea de una forma simplificada.

    En la práctica, los fabricantes de hornos  tratan  de  obtener  la mayor transmisión de calor por unidad de área, que sea  compatible con la resistencia mecánica de los materiales utilizados,  lo  que está normalmente en el orden de las 65 000 kcal/hr-m , para  poder mantener el tiempo de residencia dentro del tubo  tan  corto  como sea posible (p.e. 0.8s) y obtener una temperatura  correcta en  el fluido de reacción a su salida del reactor (820 - 880 C).

 

 Reactor continuo perfectamente agitado.

     Este tipo de reactor se usa principalmente para las reacciones  en fase líquida, y  su  escalado  conlleva  muy   frecuentemente   la transposición de los experimentos a pequeña escala  realizados  de forma discontinua, a reactores continuos de una sola  etapa  o  de varias etapas  agitadas  en  serie  (10).  Esta  transposición  es relativamente simple si se puede obtener un modelo del sistema  de la reacción, durante los experimentos a pequeña escala (2, 32).

     Como ejemplo podemos considerar  el  proceso  de  dimerización  de olefinas, desarrollado por el Instituto Francés del Petróleo (IFP) (29), en el  cual  las  reacciones  ocurren  en  presencia  de  un catalizador del tipo  homogéneo,  confeccionado  a  partir  de  un compuesto de níquel, un compuesto de coordinación y un  haluro  de alquil  aluminio,  manteniéndose  todos  en   una   fase   líquida homogénea. Este proceso puede  ser  explotado  en  dos  variantes: iniciando con propileno para producir primero hexenos y  adicionar éstos a la gasolina o  iniciando  con  propileno  y  butenos  para producir heptenos y octenos  y  emplear  los  mismos  en  la  oxo-síntesis para la producción de alcoholes.

     Para el desarrollo del proceso se partió de un modelo del  sistema de reacciones, desarrolado a  partir  de  los  resultados  de  los experimentos de laboratorio con un reactor  discontinuo,  el  cual fué la base para el escalado de las  dos  variantes  de  tipos  de reactor  seleccionadas  para  la  unidad  industrial:  un  reactor perfectamente agitado como etapa  única,  para  la  producción  de hexenos y varias etapas en serie (3 ó 4)  para  la  producción  de heptenos y octenos.

    En este caso fue necesaria la construcción de una  pequeña  planta piloto, aunque su  objetivo  no  fué  resolver  los  problemas  de escalado propiamente  dichos,  sino  evaluar  consideraciones  con respecto al catalizador, como son: remoción del catalizador  a  la salida del reactor; riesgos de depósitos de material catalítico en las  paredes, que pueden  afectar  la  transferencia  de  calor  a través  de  las  mismas  y  el  efecto  de  las  impurezas  de  la alimentación en la actividad del  catalizador.  La  planta  piloto sirvió también para producir muestras para pruebas.

 

3.2.2 Escalado de reactores de dos fases fluidas.

     Se consideran dos tipos  diferentes de sistemas de reacción en dos fases fluidas, una simple pero muy rápida y otra compleja pero  de moderada velocidad de reacción (29).

 Reacción simple pero muy rápida.

     Este tipo de reacciones se tipifica con el proceso  Claus,  en  el cual ocurre la siguiente reacción:

                   2 H²S   +   SO² [------L  3 S   +  H²O

     Como ejemplo se tiene el desarrollo del proceso Clauspol 1500 para el lavado de los gases efluentes de una unidad Claus convencional, en el cual se empleó el principio de realizar la reacción  a  baja temperatura en un solvente con un  catalizador  disuelto.  En  ese caso tanto la trasnferencia gas-líquido del H²S y el SO²  como  la reacción entre ellos, ocurre en la fase líquida.

      Los experimentos de laboratorio y banco mostraron  que  bajo  esas condiciones la reacción se podía considerar muy rápida, de acuerdo con lo definido en la teoría de transferencia de masa en presencia de reacciones químicas (número de Hatta mayor que 3) (16) y  sobre esa base se construyó un modelo matemático.

     La utilización del modelo llevó a la conclusión que los parámetros claves para el escalado eran el área interfacial entre  las  fases líquidas y gaseosas y por ello se seleccionó una columna  empacada a contracorriente, de forma de minimizar  la pérdida de presión en el gas al ser limpiado.

      Se construyó una pequeña unidad piloto con una columna de 10 cm de diámetro interior y un mockup de 60 cm de diámetro. Con el  mockup se obtuvieron las correlaciones entre las  áreas  interfaciales  y los flujos de gas y líquido, utilizando el método de oxidación  de sulfito de sodio y se ensayaron distintos tipos de empaquetaduras. La planta piloto sirvió para resolver problemas  relacionados  con las  corridas  largas,  tales  como:   deterioro   del   solvente, desactivación  del  catalizador,  efectos  de  impurezas   en   la alimentación y resistencia a la corrosión  de  los  materiales  de construcción.

      Para la construcción de la primera unidad industrial  se  tuvieron en cuenta los datos combinados del laboratorio,  planta  piloto  y mockup, así como los resultados de un modelo  matemático  de  tipo fenomenológico. La primera unidad construída tuvo un diámetro de 6 m y después de ella se han  construído  otras  20  unidadeds  más, algunas de ellas de 10 m de diámetro.

 

Reacción compleja de velocidad  moderada.

     Un ejemplo  de  reacciones  de  este  tipo  es  la  oxidación  del ciclohexano  para  producir   una   mezcla   de   ciclohexanol   y ciclohexanona. Esta reacción puede producirse inyectando  aire  en

una corriente de ciclohexano precalentada a 160 -170 C, pero a  su vez los productos deseados pueden sufrir también oxidación, lo que limita  seriamente  la  selectividad  de  la  transformación   del ciclohexano en la mezcla de ciclohexanol y ciclohexanona.

     Se pudo comprobar por los experimentos a nivel de laboratorio, que añadiendo ácido bórico a la mezcla  de  reacción  se  mejoraba  la selectividad, ya que este  ácido  reacciona  con  el  ciclohexanol formando ésteres que lo protegen  de  la  posterior  oxidación.  A partir de ese punto,  se  comenzaron  una  serie  de  experimentos discontinuos para determinar  el  efecto  de  las  condiciones  de operación en la conversión de ciclohexano y la selectividad.

     Los  resultados  obtenidos  confirmaron   el  incremento   de   la selectividad producido  por  la  adición  de  ácido  bórico  y  se obtuvieron  datos  para  confeccionar  las  relaciones  entre la selectividad y la conversión, lo que hizo posible fijar  el  rango de condiciones de operación en las cuales se  podía  alcanzar  una selectividad del 90% y se estuvo en condiciones  de  realizar  una

primera aproximación del tipo de instalación industrial que  sería necesaria y comenzaron a analizarse los problemas del escalado.

     Se seleccionó una columna de burbujeo con circulación del fondo al tope, como el equipo idónedo para mantener el  ácido bórico en suspensión y permitir la reacción relativamente lenta en  la  fase líquida, ya que este proceso y no la transferencia de oxígeno, era el que limitaba la transformación deseada. También se pudo definir

que eran necesarios varios reactores de ese tipo  en  serie,  para poder mantener la pérdida de  selectividad  tan  baja  como  fuese posible, al pasar de la operación discontinua de  los experimentos iniciales  a  la  operación  continua  necesaria  en   la   escala industrial.

     Se construyó entonces una  planta  piloto  continua  de  una  sola etapa, para chequear los resultados de  la  operación  continua  y estudiar los diversos problemas inherentes a la recirculación  del ciclohexano  y  el  ácido  bórico,  así  como  la   separación   e hidrólisis de los ésteres formados. No se construyó la planta  con los tres reactores en serie,  como  se  anticipaba  que  sería  la instalación industrial, por  motivos  económicos,  pero  de  todas formas la información obtenida con  una  etapa  continua,  resultósuficiente par asegurar la correcta trnsposición de  la  operación discontinua a nivel de laboratorio y banco a la operación continua

y por etapas a nivel industrial.

     Con el conocimiento alcanzado se estuvo en posibilidad de formular un modelo matemático simplificado que consideraba el proceso  como el  producto  de  dos  reacciones  en   serie   y   brindaba   las posibilidades para, a  partir  de  los  datos  de  laboratorio en instalaciones discontinuas y los de la planta piloto  continua  de

una sola etapa, pasar a un  modelo  fenomenológico  más  completo, capaz de proporcionar la  información  para  pasar  de  una  etapa continua a las tres etapas continuas en serie requeridas y con esa base se pudo  construir  y  poner  en  marcha  la  primera  unidad comercial de ese proceso sin dificultad alguna (29).

 

3.2.4 Escalado de reactores catalíticos.

En los procesos catalíticos petroquímicos y de refinación, existen muchas aplicaciones de la catálisis heterogénea y varias  vías  de utilización de los catalizadores, como son:  cama  fija,  cama  en movimiento,  cama  fluidizada  y  suspensión.  En  los  siguientes ejemplos se considerarán solamente los casos de cama fija  y  cama en movimiento 29, 30).

 

Reactores con cama fija de catalizador.

Las reglas de diseño  de  este  tipo  de  reactores  son  bastante bien conocidas.  Los  problemas  radican  en  hallar  el  tipo  de equipamiento  experimental  de  pequeña  escala,   adecuado   para realizar las mediciones del  rendimiento  del  catalizador  y  que éstas sean representativas en la escala industrial.

     En el caso de la reformación catalítica, el esquema de reacción es complejo y los efectos térmicos son muy fuertes durante la primera

fase de la transformación, o sea durante la dehidrogenación de las cicloparafinas. La tecnología, en uso general desde hace más de 30

años, consiste en tres o cuatro reactores de cama fija  en  serie, operando adiabáticamente, precedidos por hornos para compensar  la naturaleza endotérmica global del sistema reaccionante (29).

     Sin  embargo,  los  estudios   sobre   la   efectividad   de   los catalizadores  se  desarrollan  nornmalmente  en  unidades  piloto isotérmicas, usando lotes de 300 a 400  gramos  de  catalizador  y esto  dificulta  hacer  las   comparaciones   entre   esas   camas experimentales de algunos centímetros y   las  camas  industriales mucho más grandes.

     Sin embargo, esa situación es aceptable en este caso debido  a que la  transferencia  de  masa  en  el  exterior  de  los  granos  de catalizador juega un rol despreciable en la cinética global  y  la transposición entre la operación isotérmica a nivel  piloto  y  la adiabática a nivel industrial puede hacerse mediante correlaciones empíricas  disponibles,  aunque  no  se  dispone  aún  de  modelos matemáticos útiles para este proceso, debido a la gran complejidad del mismo.

     El tipo de reactor utilizado industrialmente para las  operaciones de hidroprocesamiento (hidrodesulfurización de gasolina, fuel-oil, destilados  al  vacío  y  residuos;  hidrocraqueo  para   producir destilados  medios  y   gasolina;   hidrorefinación   de   aceites lubricantes, etc)  es  el  de  cama  fija  y  dos  fases  fluídas, denominado "cama de escurrimiento" (trickle bed) (Figura 3.5).

     A pesar de la amplia experiencia acumulada con  algunos  de  estos procesos, el desarrollo  de  nuevos  procesos  y  variantes  y  la necesidad de reducir el costo de los reactores (más  del  30%  del costo total de una unidad), han hecho que en los últimos  años  se hayan  realizado  un  considerabale  trabajo  de  investigación  y desarrollo encaminado al conocimiento del flujo de dos fases  (gas y líquido), a través de camas  de  catalizador  y  que  mucho  aún permanezca por ser aprendido.

     Entre los aspectos no suficientemente estudiados, está la caída de presión en este tipo de equipo, la que sólo se podía calcular  con un amplio margen de error (+ - 100%). Para los estudios  de  caída de  presión  y  patrones  de  flujo,  se han  empleado equipos  de laboratorio on tubos de 10 a 15 cm de diámetros, seguidos por  la utilización de mockups para estudiar los  problemas  distributivos de las fases a través de la sección transversal  de  la  cama  del catalizador (Figura 3,6). La distribución de las fases  líquida  y gaseosa debía ser tan homogénea como  fuera  posible,  ya  que  la homogeneidad determina la eficiencia de la cama de  catalizador  y el mínimo volumen del reactor.

 

Figura 3,5 Reactor de escurrimiento (De Trambouze, 1990)

     En los reactores piloto con un  pequeño  diámetro  interior  (unos pocos centímetros), se obtiene fácilmente una buena  distribución,a pesar de  que  las  velocidades  lineales  de  los  fluidos  son considerablemente menores que en la escala industrial.  A  su  vez esas  bajas  velocidades   lineales   pueden   tener   un   efecto significativo en la transferencia gas-líquido en los procesos  que consumen grandes cantidades de hidrógeno,  como  es  el  caso  del hidrocraqueo.

  Con  el  empleo  de  los  mockups  se  pudieron   determinar   las velocidades  lineales  que  debían  emplearse   en   los   equipos industriales y posteriormente se realizaron  corridas  en  plantas

piloto con velocidades lineales lo más  cercanas  posibles  a  las obtenidas en los mockups.

    Aquí es importante tener en cuenta que en los reactores piloto  de pequeño diámetro interior, es fácil obtener una buena distribución a  pesar  que  normalmente  operan  con   velocidades   de   flujo

considerablemente  más  bajas  que  en  los  esquipos  de   escala industrial y esas  bajas  velocidades  lineales  pueden  tener  un efecto importante en la transferencia gas-líquido, en los procesos como el hidrocraqueo donde el consumo de hidrógeno es elevado.

 

Figura 3,6. Mockup desarrollado para estudiar la distribución gas/líquido en el reactor de escurrimiento (De Trambouze, 1990).

    Por esa causa es conveniente realizar también corridas  de  planta piloto a las velocidades  altas  en  que  se  operan  las  plantas industriales,  para  de  esa   forma  poder  garantizar,  con  los resultados conjuntos de  los mockups  y  las  plantas  piloto,  la obtención  de  las  correlaciones   entre   el   rendimiento,   la selectividad y la vida  del  catalizador,  fundamentales  para  el diseño de las unidades industriales.

 

 Reactores con cama móvil de catalizador.

    Los requerimientos crecientes con relación a la cantidad y calidad de la gasolina y la producción de aromáticos, ha hecho incrementar la importancia ded los procesos de  reformación  catalítica  y  ha llevado al desarrollo de un profundo trabajo de investigación para mejorar la estabilidad del catalizador.

     Este desarrollo llegó a un punto en el cual no se  podían  obtener mejoras sin un cambio radical de la tecnología y de ahí surgió  la utilización de una cama movible de  catalizador,  que  permite  la regeneración continua o semi-continua del mismo.  Después  de   la regeneración el catalizador entra al  tope  del  primer  reactdor, desciende por gravedad y sale por el fondo, de donde  es  empujado neumáticamente hacia el tope del  próximo  reactor  y  después  de pasar  por  todos  los  reactores,  retorna  al  regenerador  para completar el ciclo.

     Para disminuir la caída de presión a través de la cama de catalizador se adoptó una tecnología de flujo cruzado, con un reactor de la forma mostrada en la figura 3.7 (Tambouze, 1990).

Figura 3.7 Reactor de cama móvil con flujo cruzado (De Trambouze, 1990).

    El trabajo requerido para el desarrollo de una unidad  de  proceso basada en esa tecnología incluyó (29, 30):

  -Mejora de la resistencia  mecánica  de  los  catalizadores  sin    detrimento de la calidad de los mismos.

  -Optimización de las condiciones de operación  para  mejorar  el   rendimiento de la regeneración.

  -Estudio de la transferencia neumática del catalizador.

  -Detallar el diseño de los reactores de cama movil.

  -Diseñar  válvulas  aislantes   de   catalizador   que   fuesen  herméticas al hidrógeno.

    Los primeros dos objetivos se investigaron en unidades  piloto  de reformación construídas al efecto, las  tres  últimas  requirieron del uso de mockups y en el caso  particular  del  último  de   los objetivos, las  investigaciones  culminaron  con  pruebas  a  gran escala bajo condiciones reales de operación.

     En particular nel diseño detallado del reactor conllevó un estudio detallado de las interacciones gas-sólido y para  ello  se  dieron los pasos siguientes:

  -Empleo de una pequeña  unidad  de  laboratorio  de  unos  pocos    centímetros de tamaño para mostrar los efectos  tales  como  el    amasado del catalizador contra los tamices  en  la  salida  del    gas.

  -Un  mockup  rectangular  capaz  de  cargar  hasta  350   L   de    catalizador, para un estudio preliminar de la relación entre el    espesor de la cama compactada y la caída de presión en  la  fse

gaseosa.

  -Un mockup del tamaño y forma del reactor  industrial  planeado,    aunque limitado a sólo un sector del cilindro para reducir  los    volúmenes de catalizador y de gas a recircular y con una de las caras hechas de Plexiglas de forma que se pudiera  observar  el    flujo de sólidos mediantes técnicas de trazado. El  volumen  de    sólido total en ese mockup era de 2.5 m (Figura 3.8).

     En el trabajo con los mockups, se emplearon como fase  sólida  los  mismos gránulos que sirven de soporte  al   catalizador,  la  fase gaseosa fué el aire y  las  condiciones  de  operación  fueron  la temperatura  y presión ambientales. De esa forma,  gracias  a  una serie de mediciones y modificaciones hechas en el mockup grande, a muy  bajo  costo,  fué  posible  definir  la  forma  del   reactor industrial y los valores máximos de flujos y caídas de presión.

     Finalmente, combinando los resultados de las plantas  piloto  para las condiciones de operación del reactor y del regenerador con los resultados de los mockups sobre los  problemas  de  transporte  de sólidos e interacción gas-sólido,  se  estuvo  en 

Figura 3.6 Variante de mockup utilizado para el estudio del comportamiento del reactor catalítico (De Trambouze, 1990).

 

condiciones  de diseñar y construir la primera unidad con esta tecnología,  a  una escala modesta primero (1/10 de las plantas industriales  comunes) y a la escala normal después,  convirtiéndose  en  una  tecnología aceptada a nivel mundial y en franco desarrollo.

 

3.2.5 Consideraciones generales.

     Del análisis de  los ejemplos analizados en  su  conjunto,  comparando  la importancia relativa de los distintos fenómenos,  tanto  cinéticos como de transferencia de calor y  masa,  así  como  los  medios  y métodos empleados para su estudio en  cada  uno  de  los  ejemplos analizados, se puede tener una idea cabal de  la  complejidad  del escalado de los reactores químicos y de  la  importancia  del  uso creador y combinado de las distintas herramientas existentes.

     En particular resultan muy útiles para este tipo de escalado el empleo de los mockups. También se comprueba el hecho de que en la mayoría de las ocasiones el problema real radica más bien en un proceso de escalado descendente (scale down) que en un escalado ascendente (scale up), ya que en todos los casos se debe prever el tipo final de reactor industrial que se debe emplear y la isntalación piloto y mockups se diseñan para resolver los problemas de diseño de la misma.

     Además, la construcción de un modelo matermático es ciertamente la herramienta más efectiva para un escalado exitoso. Ahora bien, por modelo matemático no necesariamente se entiende un gran conjunto de ecuaciones albegraicas o diferenciales o de derivadas parciales, aunque en ocasiones estos métodos pueden ser necesarios y por lo tanto se justifica su uso. Siempre debe recordarse que mientras más complejo sea el modelo, más datos experimentales se requieren para probarlo. Es por ello que en la mayor parte de los casos  un modelo simple puede ser suficiente, aunque la simplificación no significa ignorar las teorías probadas.      

    En resumen, el uso simultáneo de todos los recursos disponibles (laboratorio, plantas pilotos, mockups y modelos matemáticos) es muy importante y eso se ha podido comprobar en los ejemplos analizados en este capítulo.

     Finalmente hay que tener en cuenta que los procedimientos de escalado, son con mucha frecuencia, compromisos técnicos y, principalmente, económicos. Nunca en el proceso de desarrollo es posible alcanzar una definición perfecta de lo que será el proceso industrial definitivo y de hecho, limitado por las fechas topes de culminación de los proyectos y otras consideraciones técnico económicas, se deben correr siempre riesgos calculados en la construcción de la primera planta industrial. Esos riesgos deben ser balanceados en términos de su posible repercusión financiera y comparado con las sumas adicionales que habría que gastar para incrementar el conocimiento del proceso en desarrollo,.

     En determinado momento esto puede llevar a la decisión de construir una planta semi-industrial, cuando la complejidad y los riesgos previsibles lo hagan asimilable, debido al alto costo y el incremento en el plazo total de tiempo para el desarrollo del proceso que  significa una planta de este tipo (Trambouze, 1990).


CAPÍTULO 4

Escalado de los Procesos Biotecnológicos

4.1 Introducción.

     El único hecho incontrovertido acerca del Escalado de los Procesos Biotecnológicos en general y de los Bioreactores en particular , es que es una de las tareas más complejas  en el campo de la Ingeniería Bioquímica,  que constituye un empeño retador  para los especialistas de la rama.  Teniendo en cuenta la enorme complejidad de esta tarea, resulta conveniente dividirla en dos problemas básicos (Figura 4.1), ( Reuss, 1993):

Figura 4.2 Problemas básicos para el

 escalado de un Bioreactor (De Reusss,

 1993).

1.   Problemas asociados  con el diseño de un fermentador o de una planta de producción, en los cuales se asume que el diseñador tiene la flexibilidad de seleccionar o desarrollar un sistema que cumpla con los requerimientos del proceso.

2.   Problemas asociados con el diseño de las condiciones de proceso que son compatibles con un fermentador industrial existente. Este tipo de problemas resulta muy común en la práctica industrial, particularmente cuando se deben producir muchos productos diferentes y a veces no relacionados entre sí, en una instalación limitada.

    Ambos tipos de problemas tienen sus especificidades y no es posible hallar herramientas que sean útiles a ambos por igual. Por esa causa, las reglas aceptadas generalmente para el proceso de escalado deben ser consideradas siempre con precaución y debe tenerse en cuenta que el éxito de un proceso de escalado depende mucho de la extensión en que se semejan entre sí las características del sistema en cuestión. Por ejemplo,  las condiciones existentes en la escala pequeña permiten considerar casi siempre un estado de mezcla perfecta, lo cual es casi imposible de asegurar en la escala mayor, por limitaciones prácticas existentes. Por esa causa no es necesario ni conveniente tratar de duplicar las condiciones óptimas obtenidas en la  escala de banco a una escala mayor.

     Producto de que sólo muy raramente se pueden reproducir en las plantas comerciales a gran escala las condiciones óptimas halladas previamente en las escalas de banco y piloto, resulta crucial encontrar estrategias que cubran el rango completo de las variables claves y es imperativo que los experimentos en la escala pequeña no se concentren en encontrar un óptimo que puede ser incongruente con las condiciones de una planta de producción.

     Para sobreponerse a esas deficiencias resulta útil pensar en la instalación piloto como un satélite permanente de la planta de producción y coordinar iterativamente el proceso de escalado ascendente y descendente (Aiba et al, 1973; Reuss, 1993). No obstante, si bien este enfoque puede resultar adecuado para un proceso particular, el concepto permanece empírico y no puede compensar la necesidad de desarrollar estrategias racionales basadas en una mejor comprensión de los fundamentos del proceso.

 

4.2 Tipo de equipamiento a utilizar en el desarrollo de los procesos de la Biotecnología Industrial.

     En este epígrafe se considerarán las principales etapas en que convencinalmente se ha dividido el proceso de Investigación y Desarrollo (Capítulo 1): laboratorio, banco, y piloto.

 

4.2.1 Etapa de laboratorio.

     En la mayoría de las ocasiones (microorganismos y células vegetales) se utilizan los denominados frascos agitados (shake flasks), los cuales se colocan en equipos agitadores rotatorios orbitales, generalmente con posibilidades de control de la temperatura a la cual se produce el proceso y, para el caso de las células vegetales con posibilidades también de control de la iluminación (Figura 4.2).

     Para el caso específico de las células de mamíferos, generalmente se emplea en esta escala un equipamiento algo diferente. Por ejemplo en lugar de los frascos agitados se emplean las botellas rotatorias (roller bottles), también soportadas por un sistema para su agitación.(Figura 4.3)

Figura 4.2 Agitador rotatorio orbital con control de temperatura para la etapa de laboratorio (Catálogo Bioblokc).

Figura 4.3 Agitador rotatorio para botellas giratorias (Catálogo de Bioblock).

     En el caso de las células de mamíferos, en ocasiones se utilizan también otros equipos, los denominados cestos giratorios (spinner baskets), cuando se trata de células en suspensión y el equipo toma la forma mostrada en la figura 4.4.

       También se tiene el caso de las células que crecen sobre microportadores y en esos casos se utiliza la agitación en frascos de laboratorio, para lo cual existen diversas variantes (Figura 4.6)

Figura 4.5 Mini reactor de laboratorio para células inmovilizadas (Catálogo New Brunswick).

Figura 4.6 Variantes de bioreactores de laboratorio para células creciendo sobre micrportadores.

     En todos los casos las tareas principales simpre son las mismas (Capítulo 1): Seleccionar las cepas adecuadas y optimizar el medio de cultivo, así como definir las condiciones óptimas de pH, temperatura, iluminación, etc.

 

4.2.2 Escala de banco.

     En esta escala  el equipamiento a utilizar  comienza a tomar las características de los equipos industriales, aunque aún predomina el vidrio como elemento fundamental de construcción. Los fermentadores a emplear en esta escala son siempre autoclaveables y, cuando el tamaño es pequeño (1 a 2 L) generalmente tienen un tope de acero inoxidable y el resto del cuerpo de vidrio (Figura 4.7).

     Cuando el volumen es mayor (de 5 a 10L por ejemplo), entonces tanto el fondo como el tope son de acero inoxidable, aunque se mantienen sus características de autoclaveables. Existen variantes con agitación por el fondo (Figura 4.8) y con agitación por el tope (figura 4.9).

Figura 4.7 Fernentador de escala de banco de pequeño volumen (1 a 2 L) (Catálogo Biolafitte).

Figura 4.8 Fermentador de banco con fondo y tope de inoxidable, agitado por el fondo (Catálogo Bio Lafitte).

 

 

Figura 4.9 Fermentador escala de banco,

con fondo y tope de inoxidable, agitado

por el tope (Catálogo new Brunswick).

     Cuando se trata de células animales, sólo se cambia el tipo de impelente, utilizándose generalmente el tipo de propela y se prefiere también el fondo redondeado en lugar de recto, por consideraciones hidrodinámicas. En general se ha comprobado que las células de mamíferos no son tan susceptibles como se pensaba al esfuerzo cortante (Chisti  et al, 1994).

     También se tienen consideraciones con relación al proceso de aireación, para lo cual en ocasiones se utilizan dispersores convencionales, pero en la mayoría se emplea la aireación superficial o con diospersores de diseño especial. En la Figura 4.10 se muestra un diseño de impelente aireador especial para cultivos celulares.

        También las conecciones para el suministro de gases cambia en algo ya que, sobre todo en los cultivos vegetales, se hace necesario en muchas ocasiones adicionar CDO2 y otros gases, como se muestra en Figura 4.11.

 

Figura 4.10  Sistema de aireación es-

pecial para cultivos celulares (De

Beck et al, 1987).

Figura 4.11. Fermentador para cultivos celulares con adición de varios tipos de

 gases (De Beck et al, 1987).

     En todos los casos las tareas principales a desarrollar son las mismas (Capítulo 1): Seleccionar el procedimiento d edesarrollo de inóculos, esterilización del medio, aireación  y agitación; Determinación de los modelos cinéticos del proceso y sus coeficientes específicos ; Realizar ajustes de variables como la razón de transferencia de oxígeno, la evolución de dióxido de carabono, producción de biomasa, biosíntesis de metabolitos y efectos de pH; Estudio del régimen de allimentación continua o incrementada; Selección de alternativas de control e instrumentación y Realización de la evaluación económica preliminar del proceso.

 

4.2.3 Escala piloto

    El tamaño de los equipos a emplear en esta escala, depende mucho del tamaño final de la unidad de producción industrial. Cuando la producción final es a pequeña escala, como en el caso de la producción de anticuerpos  monoclonales a partir de células de mamíferos, un equipo de 500 litros es prácticamente de escala industrial, por lo cual la escala piloto puede ser muy reducida.

     En general los fermentadores en esta escala son esterilizables in situ, y son alimentados con materias primas industriales, a diferencia de la escala de banco, donde se emplea en la mayoría de los casos, reactivos de laboratorio y se destacan por la posibilidad de obtener cantidades apreciables de  producto, en condiciones similares a las industriales, con las cuales se pueden hacer las pruebas de mercado y las  pruebas clínicas, en el caso de los medicamentos.

     Se consideran en la escala piloto, fermentadores a partir de 20 L,  generalmente construídos totalmente de acero inoxidable (Figura 4.12).  En el caso de la producción de anticuerpos monoclonales, por otra parte,  la pequeña escala de producción hace que se puedan considerar instalaciones piloto,

Figura 4.12  Fermentadores de escala

piloto y semi industrial (Catálogo Bio-

lafitte).

equipos de tamaño bastante reducido (Figura 4.13), pero en todos los casos el requisito fundamental es que puedan obtenerse cantides apreciables de producto que permitan realizar las pruebas necesarias y aseguren que no se tendrán cambios en las especificaciones de calidad cuando se pase a la escala industrial.

Figura 4.13. Mini Planta Piloto para la producción de anticuerpos monoclonales (Catálogo New Brunswick).

 

4.3 Técnicas a aplicar en el Escalado de los Bioreactores.

     De acuerdo a lo analizado anteriormente, es necesario que durante el proceso de escalado se logre alcanzar en el bioreactor de escala industrial un ambiente fisiológico e hidrodinámico tan similar como sea posible, al establecido en los equipos de escala de banco o piloto. Las soluciones de ingeniería para ese problema incluyen mantener la semejanza geométrica siempre que sea posible y además mantener constante un criterio dado, tales como la potencia por unidad de volumen, el coeficiente volumétrico de transferencia de masa ,

el tiempo de circulación, etc. (Tabla 4.1) (Reuss y Bajpai, 1993).

     La lógica que respalda estos criterios se basa en que  preservar uno de estos criterios significa mantener la constancia de las características correspondientes del ambiente extracelular en las diferentes escalas. Por lo cual, si esa propiedad ambiental es una de las que más críticamente influencian la deseada productividad microbiana,  se obtiene por consiguiente un escalado exitoso y en la realidad un número de sistemas microbianos están en acuerdo con esas técnicas y permiten una operación en la escala industrial razonablemente de acuerdo con la establecida en las escalas de banco y piloto.

     Sin embargo, es fácil de apreciar que esos criterios son mutuamente exclusivos y,  por consiguiente, no permiten una replicación exacta de la semejanza ambiental en dos escalas diferentes cualesquiera. Bajo tales circunstancias, el comportamiento de los microorganismos en diferentes fermentadores permence incierto. De hecho el uso de propiedades volumétricas como criterio de escalado, demanda una garantía de uniformidad de propiedades a través del sistema, algo que puede resultar imposible, incluso en un bioreactor pequeño (Reuss y Bajpai, 1993).

 

Tabla 4.1 Criterios más empleados para el escalado de Bioreactores tipo tanque agitado (Tomado de Reuss, 1993).

Coeficiente volumétrico de transferencia de O2

kLaL

Consumo de Potencia por unidad de volumen

P/VL

Velocidad en la punta del Impelente

NDi

Velocidad de agitación

N

Tiempo de mezclado terminal

 

     Los bioreactores se caracterizan por las  interacciones complejas entre los fenómenos de transporte y la cinética microbiana y esto determina su rendimiento. Sin embargo, mientras la cinética microbiana no es dependiente  de la escala, los procesos de transporte si lo son. Como resultado los problemas de escalado pueden asociarse a las actividades críticas en el dominio de los procesos de transporte y la identificación de esas actividades críticas se puede llevar a cabo comparando las diferentes constantes de tiempo, como se muestra en la Tabla 4.2. Un análisis de ese tipo lleva a la conclusión de que en diversos bioprocesos la distribución de masa y/o energía es frecuentemente la actividad crítica que afecta el ambiente extracelular en un bioreactor.

     No obstante, el hecho de que la determinación de las constantes de tiempo requiere el empleo de correlaciones empíricas, como las de determinación del coeficiente kLaL, el éxito de estos análisis depende mucho de la calidad de las correlaciones utilizadas, lo cual en muchos casos es cuestionable (Reuss, 1993). Por esta causa, en la práctica, a pesar de las limitaciones antes señaladas, el empleo de una de las técnicas mostradas en la Tabla 6.1sigue siendo hasta ahora la variante más empleada en los procesos de escalado de bioreactores.

    Como comparación, a continuación se presentan las constantes de tiempo de los procesos cinéticos que ocurren en un bioreactor (Tabla 4.3)

     En ese caso, el proceso de escalado conlleva los siguientes requerimientos:

1.   Selección de un índice de rendimiento

2.   Elección de una ecuación apropiada para estimar las condiciones de operación y  garantizar mantener la propiedad seleccionada en escalas diferentes

3.   Estimar las consecuencias de este proceso en otras variables claves, con la ayuda de ecuaciones de translación adecuadas

     Obviamente esto no es un enfoque directo sino más bien un proceso iterativo, para el cual es prerrequisito un investigador con un buen sentido de la naturaleza física de los procesos involucrados y experiencia de laboratoria. De particular importancia es realizar a intervalos, durante el proceso de escalado ascendente, algunos  experimentos de escalado descendente que permitan chequear la influencia de los diversos efectos interdependientes (Reuss, 1993). También es importante tener claro, como se ha señalado anteriormente   que las correlaciones requeridas casi nunca están disponibles o no son del todo confiables.

 

Tabla 4.2 Constantes de tiempo para diferentes procesos relacionados con los fenómenos de transporte  que ocurren en un bioreactor industrial  (fermentación ácido glucónico) Tomado de Reuss y Bajpai, 1993.

Procesos

Ecuación

Constante de tiempo

Transf. masa gas-líquido

 

5.5 - 11.2

 

Tiempo de circulación

 

 

12.3

 

Tiempo residencia del gas

 

20.6

 

Transferencia de calor

 

330 - 650

4.3 Aplicación de los criterios de escalado.

          Se considerará  primero lo relacionado con el  volumen  de  aire  a introducir  en  el   fermentador,   aspecto   que   no   ha   sido suficientemente analizado en las investigaciones sobre el escalado de los fermentadores tipo tanque agitado, al haberse priorizado en la mayoría de las ocasiones las consideraciones con respecto a los agitadores. Esa menor atención ha hecho  que  las  recomendaciones hayan sido con frecuencia, imprecisas o no satisfactorias.

 

 

Tabla 64.3 Constantes de tiempo de los procesos cinéticos en un bioreactor. (Tomado de Reuss y Bajpai, 1993).

 

 

 

Consumo de oxígeno

 

 

 

0.7 - 16

 

 

Utilización de sustrato

 

 

 

5.5E+4

 

 

Creciminto de biomasa

 

 

 

1.2E+4

 

 

Producción de calor

 

 

 

350

 

 

 

4.3.1 Escalado del flujo de aire.

     La recomendación de mantener constante  el  flujo  por  unidad  de volumen, expresada generalmente por el término v.v.m. (Volumen  de aire por volumen de fermentador por minuto), es muy citada  en  la literatura sobre fermentadores (Aiba et al, 1973; Russell, 1987). También es bastante utilizado el criterio de mantener constante la velocidad superficial, que es la  velocidad  resultante  de  dividir  el  flujo  total  de  aire introducido  al  fermentador  entre  el    área   de   su   sección transversal.

     El criterio de mantener constante las v.v.m. ha sido recomendado especialmente para el escalado ascendente (scale-up), a partir de fermentadores de banco y para saltos moderados de escala y produce como resultado, cuando se usa en el  sentido ascendente, un resultado muy conservador. Esto significa que se obtiene con el mismo un valor de flujo de aire  muy superior al requerido realmente, lo que trae como resultado mayor gasto energético, mayor posibilidad de formación de espuma y posibilidades de daño a los microorganismos por el esfuerzo cortante. Por otra parte, el criterio de mantener constante la velocidad superficial, es particularmente útil para el escalado descendente (scale-down) a partir de fermentadores industriales y en ese caso brinda también resultados conservadores. En ambos casos, el resultado que se obtiene  cuando el escalado se hace en el sentido contrario al que se recomienda (descendente en el caso de las vvm y ascendente en el de la velocidad superficial) es un flujo de aire inferior al requerido realmente, lo cual impide obtener el resultado previsto en el escalado.

    Por esa causa, como alternativa preferente se tiene  el  método  recomendado  por Aiba (1970), basado en el criterio de mantener  constante el coeficiente  de  transferencia de masa, desarrollado inicialmente para los casos en que no existe agitación  mecánica y por tanto la transferencia de masa se produce por la  acción  de las burbujas de aire que salen del  distribuidor  (sparger).  Este método se ha comprobado que puede ser  también  utilizado como una buena aproximación para el escalado en los  fermentadores del tipo tanque agitado, con resultados superiores a los que se alcanzan con los métodos de igual vvm y de igual velocidad superficial.

     En este criterio de igualdad del coeficiente de transferencia de masa se aplica la siguiente ecuación:

                    (4.1)

     En esta expresión  (Q/V) significa flujo por unidad de volumen y tiene el mismo sentido práctico que  el término v.v.m.,  pudiéndose  expresar en las misma forma, o sea  en  volúmenes de aire por volumen  útil de líquido en el fermentador,  por minuto, aunque según las recomendaciones del SI debe expresarse preferentemente en m3 de aire por m 3 de líquido por segundo.

 

4.3.2. Escalado del régimen de funcionamiento de los agitadores.

En este caso son válidos la mayor parte de los elementos planteados en el Epígrafe 3.1 de este curso (Escalado de Tanques con agitación mecánica), a lo cual se le añadirán los elementos específicos de esta industria.

 

-Igual potencia por unidad de volumen.

     Este criterio, que es el  más  empleado  para  el  escalado  con  tanques agitados  mecánicamente,   se   ha   empleado   también muy ampliamente  en   las fermentaciones, sobre todo  en  muchos  casos  de  producción  de antibióticos.  Por  ejemplo  Aiba  (1970),  muestras  dos ejemplos de correlación de (P/V) versus Productividad. (Figuras 4.14 y 4.15)

Figura 4.14 Efecto de diferentes valores de consumo de Potencia en el rendimiento de la producción de penicilina con diferentes condiciones de fermentación (De Aiba et al, 1970)

     En uno de ellos el título de la penicilina  a  las  108  horas  se graficó contra la relación (P/V), en  dos  fermentadores  con  una relación de  escala  volumétrica  de  1:10  y  con  una  velocidad superficial en el equipo mayor aproximadamente igual al doble  del fermentador pequeño, para diferentes condiciones de  operación,  y se comprobó que para potencias menores de 0.75 kW/m el rendimiento de penicilina decae bruscamente.  Sin embargo, por  encima  de  1.4 kW/m  el rendimiento se mantiene aproximadamente constante por  lo cual,el escalado con (P/V) constante resultó aceptable,  al  menos en el rango de esa experiencia.

    La otra experiencia se realizó con la producción  del  antibiótico noviocina y se graficó el contenido  del  antibiótico  a  las  115 horas de fermentación, para diferentes  relaciones  (P/V)  y  para impelentes   de   diferente   diámetro.   Se   obtuvieron   curvas aproximadamente paralelas unas a otras y, al contrario de  lo  que debía esperarse, el rendimiento mayor  a  igualdad  de  (P/V)  se obtuvo con el impelente de menor diámetro, en lo cual deben  haber influído  las  características  específicas  del  medio. No obstante, en todos los casos se cumplió que los valores  de  (P/V) superiores a 1.1 kW/m  produjeron los mejores resultados.

      Figura 4.15. Efecto del consumo de po-

tencia en el rendimiento de noviocina

en fermentadores con impelentes de

diferente tamaño (De Aiba et al, 1970).

 

     La expresión que se aplica para este criterio es la siguiente:

                          (4.2)

 en la cual N representa la velocidad del impelente y L una dimensión característica que generalmente se toma como el diámetro del tanque. El supraíndice ' representa las condiciones del equipo a mayor escala (prototipo), mientras que las dimensiones sin supraíndice son las del equipo de menor escala (modelo). También se dispone de una expresión matemática de este criterio de escalado para los casos en que el proceso de escalado se realice  sin que exista semejanza geométrica plena, siempre y cuando se conozcan las relaciones entre las dimensiones principales de ambos equipos ( Rodríguez  et al., 1995).

     Sin embargo, experiencias recientes demuestran  que  en  la mayoría de las fermentaciones la potencia necesaria decrece con el incremento del volumen  del  fermentador,  aproximadamente  de  la forma siguiente (Chisti y Moo-Yuoung, 1991):

                                                                                           (4.3)

en la cual PG representa la potencia que consume el agitador, cuando se pasa un flujo de aire a través del mismo y VL el volumen efectivo de caldo en el fermentador.

     Eso significa que mantener (PG/VL) constante  en  el  escalado  no debe resultar un enfoque energéticamente eficiente. Además, en esa variante de escalado,  la  velocidad  periférica  del impelente se incrementa bastante y con ella el  esfuerzo  cortante al que se somete al caldo, lo que puede resultar desfavorable para muchas fermentaciones 

 

-Igual esfuerzo cortante máximo.

     Existen muchas fermentaciones sensibles al esfuerzo  cortante,  en las  cuales  no  hay  más  opción  que  mantener constante  en  el escalado la velocidad periférica del impelente o al  menos  cuidar que su incremento no sobrepase un cierto  valor  crítico,  por  lo cual  esta  variante  sería  la  adecuada,  a  pesar  de  que   el coeficiente de transferencia de masa en  el  prototipo  se  reduce considerablemente (Tabla 4.4) y eso puede traer complicaciones en el escalado.

    En este caso, para mantener la misma razón de cizalladura se considera suficiente mantener constante la velocidad periférica del impelente, o lo que es igual, mantener constante el producto (NL), por lo cual, despejando se obtiene:

                              (4.4)

     Se  conoce  por  ejemplo  que  algunas  fermentaciones  miceliares presentan  esporulación  temprana,  rotura  de  micelios  y  bajos rendimientos  si  el  esfuerzo  cortante  es  excesivo,  pero   se consideran permisibles velocidades periféricas de 0.25 a 0.5 ms-1.

 

-Igual coeficiente de transferencia de masa.

     Este  criterio  es  el  más  aceptado  para  el  escalado  de  los fermentadores de este tipo y permite asegurar igual  productividad en el modelo y en el prototipo, siempre y cuando no  se  modifique la fuerza impulsora, o sea el gradiente de concentración (Aiba et al., 1970; Rolz y de Cabrera, 1976; Chisti y Moo-Young, 1991). La expresión que se recomienda emplear para este método es una modificación, realizada por González en 1995,  de la ecuación recomendada por Rosabal (1988), a partir del desarrollo hecho por Aiba et al. (1970),:

          (4.5)

en la cual UG es la velocidad superficial del gas, a través del área de la sección tansversal del fermentador.

     El otro elemento a tener en cuenta en este método de escalado es cuál expresión se debe de utilizar para calcular el valor del coeficiente de transferencia, cuando esto es necesario, por ejemplo, cuando se necesita trabajar un fermentador a un valor preestablecido del coeficiente de transferncia. Sin embargo esto no es frecuente y en la práctica lo más común es conocer a qué niveles de aireación y agaitación debe operarse un fermentador a una escala mayor (o menor), conocidos los valores de esos parámetros en la escala de referencia. En esos casos, resulta suficiente con aplicar la ecuación de escalado 4.5.

     El cálculo del valor del coeficiente de trasnferencia puede ser necesario en el comienzo de la etapa de banco, por ejemplo, cuando se quiere tener un punto de referencia para el inicio del Diseño Experimental que se requiere. En ese caso resultan de utilidad las correlaciones mostradas por Aiba (1970) , en las que se compara, por ejemplo, el rendimiento de levadura panadera para difernts números de oxidación de sulfito (Figura 4.16)

y se obtiene que a partir de un valor de sulfito de 150 mm O2 /L/h el rendimiento no se afecta apreciablemente, con independencia del tipo de fermentador y sistema de aireación.

Figura 4.16 Efecto del número de oxidación del sulfito en el rendimiento de la levadura panadera (De Aita et al., 1970).

     Se presenta también el rendimiento de la producción de estreptomicina (Figura 4.17)  y el de penicilina (4.18) versus el valor del número de oxidación del sulfito y el comportamiento es similar, aunque para valores mucho más elevados del número de oxidación de sulfito, expresados en esos casos el número de oxidación del sulfito como Kvp, o sea el producto del coeficiente volumétrico de transferencia de masa por la presión media del aire de entrada, para poder corregir el efecto que tiene la presión hidrodtática en los grandes fermentadores utilizados normalmente para la producción de antibióticos.

Figura 4.17 Productividad de estreptomicina versus Kvp (De Karow  et al, 1953).

Figura 4.18 Productividad de penicilian versus Kvp (De Karow  et al., 1953)

     Sin embargo el hongo Ustilago zeae,productor del ácido ustilágico, si bien se comporta cualitativamente igual, presenta la constancia del rendimiebnto a partir de valores del número de oxidación de sulfito más bajos, muy semejantes a los de la levadura panadera.

Figura 4.19 Efecto del número de sulfito en la producción de ácido ustilágico (De Aib a et al, 1970).

     También se han encontrado casos cuyo comportamiento no es exactamente igual, como es el caso de la producción bacteriana de vitamina B12 en la cual se comprobó un decrecimiento del rendimiento después de alcanzado un óptimo, lo que  puede deberse a la ocurrencia de daños a los micrsoorganismos en los caldos de fermentación altamente turbulentos. El valor del número de oxidación de sulfito equivalente al óptimo, fué sin embargo similar (250 mm O2/L/h ) al obtenido para las levaduras (150 mm O2/L/h ) e inferior al de la producción de antibióticos (500- 600 mm O2/L/h ).

     Teniendo en cuenta esta información, se pueden comenzar las corridas experimentales de levaduras, hongos y bacterias con el valor del número de oxidación de sulfito recomendado, pero para esto se requiere contar con las correlaciones adecuadas, lo cual ofrece un grado de dificultad adicional. No obstante, para cumplir con el objetivo de hallar un valor inicial para la experimentación, puede aplicarse la correlación original propuesta por Cooper (1944) o algunas de sus modificaciones posteriors (Reuss, 1993), teniendo en cuenta sus imprecisiones.

    También puede hacerse uso de correlaciones más recientes, como las que se prssentan en el trabajo de Reuuss (1993).

     

   -Igual tiempo de mezclado.

 Se ha demostrado que la capacidad de bombeo por unidad de  volumen (Q/V) es una buena indicación del tiempo  de  circulación  de  una partícula en un tanque pequeño (hasta 200 litros  aproximadamente) y que es mayor que Q/V en un tanque grande (hasta unos 4 m ). A su vez el tiempo de mezclado es en general proporcional al tiempo  de circulación, aunque esta relación no está totalmente clara, ya que hay ocasiones en que el fluido recorre trayectorias en  un  tanque sin que se produzca apenas mezcla con el resto del  fluido  en  el recipiente (22). No obstante, normalmente se acepta la relación entre el tiempo  de circulación, el tiempo de mezclado y la capacidad  de  bombeo  por unidad de volumen (Q/V) y por ello se toma como  indicador  de  la igualdad de tiempos de circulación y de mezclado, la  igualdad  de la relación (Q/V).

     Además de esto se tienen algunas correlaciones para el tiempo de mezclado, como la desarrollada por Norwoof et. al, y citada por Aiba, en la cual se define un factor de tiempo de mezclado (m) y se  correlaciona  contra el Reynolds, para un impelente del tipo turbina normalizada de hojas planas. Se obtiene  un gráfico de la siguiente forma:

Figura  4.20 Efecto de la dimensión del impelente, y su velocidad y las propieda-

des físicas del líquido en el tiempo de

mezcla caractrístico para turbinas de

hojas planas (De Aiba et al, 1970).

     La nomenclatura utilizada en la figura es la siguiente:

  t:  = tiempo de mezcla, s

 Dt =diámetro del impelente, m

  g  =  aceleración de la gravedad, m/s2   

  Hl = altura del líquido, m

    n = velocidad de rotación del impelente, sec-1

    =  densidad del líquido, kg/m3

    =  viscosidad del líquido, kg/m s

    Existen otras correlaciones en la literatura para otros tipos de impelentes, aunque la mayoría son válidas sólo para fluidos Newtonianos. Es interesante notar de esta curva que semeja en parte a la del Número de Potencia vs. Re y para altos valores de Re se obtiene un  m  constante e igual a 6, de forma similar a lo que ocurre con el Np.

     Aplicando esta correlación se puede obtener información de la variación del tiempo de mezcla con las dimensiones geométricas del fermentador y la agitación, obteniéndose los resultados que se muestran en la tabla 4.3.

 

 

Tabla 4.3 Valores del tiempo de mezclado, t para  diferentes velocidades del impelente en  recipientes de 5 y 40 000 L en la región turbulenta (De Aiba et al., 1970).

.

Tiempo de mezclado, s

 N (rpm)

3 L

40 000 L

 

  30

40

66

 

60

35

41

 

120

16

26

 

300

9

14

 

750

5

8

 

 No obstante se considera más práctica aplicar el criterio antes mencionado de mantener constante la relación

    Con esta base, la ecuación para el criterio de igualdad del tiempo de mezclado, cuando los equipos a escalar son semejantes geométricamente se reduce a la expresión (González, 1995) :                                                                                                                                                 

 N' = N                                           (6.6)

     

-Comparación entre las distintas alternativas:

     En el epígrafe 3.1 se presentó la comparación  los resultados obtenidos cuando se aplican los distintos criterios de escalado al proceso de escalado ascendente desde un fermentador tipo tanque agitado de escala piloto (20 L) hasta un fermentador industrial de 2500 L. En este caso se añade la consideración del escalado del aire,. para el cual se aplica la ecuación 4.1 y la existencia de semejanza geométrica entre ambos tanques (González, 1996), aunque en el último caso se ha probado el efecto de varias la relación D/T, lo que resulta ventajoso en muchas ocasiones.

 

    Del análisis de los resultados se corrobora el planteamiento hecho al inicio del Capítulo,que es fácil de apreciar que estos criterios son mutuamente exclusivos y,  por consiguiente, no permiten una replicación exacta de la semejanza ambiental en dos escalas diferentes cualesquiera, por lo cual debe hacerse un análisis cuidadoso acerca de cuál debe ser el criterio a aplicar. En la práctica, sobre todo en las fermentaciones de levaduras y bacterias, se obtienen muy buenos resultados empleando el criterio de mantener constante el coeficiente volumétrico de transferencia de oxígeno ( kLaL), por lo cual este resulta el método recomendado para este tipo de fermentaciones. El criterio de igual potencia por unidad de volumen también ha demostrado su utilidad, sobre todo en las fermentaciones para  la producción de antibióticos, por lo cual resulta un criterio a ser considerado.

     El criterio de mantener constante la razón de cizalladura debe emplearse solamente en los casos en que el microorganismo resulte muy sensible a este parámetro y siempre y cuando el rango de cambio de escala propuesto pueda afectarlo apreciablemente. En esos casos debe tratarse, siempre que sea posible,de apartarse de la semejanza geométrica y utilizar en la instalación industrial un impelente más grande que en la piloto (Oldshue, 1983  ), con lo cual se puede obtener resultados muy favorables.

     El criterio de igual potencia por unidad de volumen tiene como dificultad el incremento de la razón de cizalladura y del tiempo de mezclado, cuando la relación de escalado es alta. lo que se puede apreciar en la siguiente tabla.

 

 Tabla 4.4 Variación del tiempo de mezclado con el escalado ascendente, manteniendo P/V constante (De Aiba et al., 1970).

Factor de escala V2/V1

Factor de escala Dt2/Dt1

Relación

(t2/t1)

8 000

20

6.3

1 000

10

4.1

125

5

2.7

64

4

2.4

27

3

2.0

8

2

1.5

 

  De la misma se aprecia que si una fermentación puede escalarse adecuadamente desde 5 hasta 40 000 L es que la misma no es muy sensitivo al incremento del esfuerzo cortante y del tiempo de mezclado que este tipo de escalado conlleva.

    En resumen puede considerarse como el método preferente el de igual coeficiente de transferencia de masa, exepto para los casos en que existan limitaciones con otros aspectos como el esfuerzo cortante o el tiempo de mezclado mm O2/L/h .

 

 


CAPITULO 5

 

UTILIZACIÓN DE LA MODELACION MATEMÁTICA Y EL DISEÑO DE EXPERIMENTOS EN EL PROCESO DE ESCALADO.

5.1 Introducción.

     El proceso completo de Escalado, desde el laboratorio hasta la industria, resulta generalmente largo y costoso, por lo cual resulta conveniente optimizar dicho proceso para llevarlo a su mínima duración y costo. Para realizar esa optimización resulta muy valioso aplicar las técnicas del Diseño Estadístico de Experimentos y la Modelación Matemática.

      El aplicar el Diseño de Experimentos a escala industrial resulta difícil por las afectaciones que puede hacerle a la producción. No obstante, el Diseño Estadístico de Experimentos es una de las principales herramientas de que dispone el investigador para aumentar la eficacia de la investigación, y hoy  en día se aplica ampliamente a escala de laboratorio, banco y piloto. No es necesario ser  un estadístico o un matemático;  la experiencia ha demostrado que los químicos e ingenieros pueden fácilmente aprender los principios fundamentales de este tipo de diseños (Guerra y Sevilla, 1987).

     Una simple observación experimental en un laboratorio, en una instalación a escala piloto o a nivel industrial puede costar cientos o miles de dólares, luego siendo el objetivo de la investigación obtener información, puede definirse la eficiencia de la investigación como la cantidad de información útil obtenida por unidad de costo. Por consiguiente, es extremadamente importante para una investigación utilizar métodos experimentales que le brinden la máxima cantidad de información con el menor costo y esfuerzo. El uso del  Diseño Estadístico de Experimentos facilita un incremento apreciable en la productividad de los investigadores, así como en la confiabilidad de los resultados obtenidos, siendo estos métodos, por su naturaleza universal, adaptables a la mayoría de los campos actuales de investigación (González, E., 1980).

      Con el Diseño Estadístico de Experimentos se pueden reducir al mínimo imprescindible las experiencias que se deben realizar a Escala de Laboratorio y planificar adecuadamente las corridas en las escalas de banco y piloto, de forma tal de obtener la mayor cantidad posible de información en el menor intervalo de tiempo. Con la Modelación Matemática se pueden reducir las corridas necesarias en las instalaciones de banco y piloto ya que se pueden realizar sólo las corridas necesarias para obtener la información que se requiere para poner a punto los modelos matemáticos del proceso y el resto de las investigaciones se pueden realizar mediante simulaciones en computadora, con la exepción de un mínimo de corridas  experimentales que se realicen al final para corroborar los resultados de los modelos.

     Aquí hay que señalar también que resulta evidente que el tipo de diseño a utilizar en cada caso, depende del objetivo del experimento y del tipo de modelo que se desea obtener. Sobre la base de estas consideraciones, se puede establecer una clasificación de las investigaciones experimentales según Box, (Guerra y Sevilla, 1987):

1.   Experimentos de tamizado: Cuando a partir de un gran número de variables hay que identificar cuáles afectan el rendimiento.

2.   Construcción de modelos empíricos : Para obtener una descripción aproximada de la relación entre X e Y, en función de parámetros B.        

3.   Construcción de modelos determinísticos: Para determinar la verdadera relación funcional que existe entre X e Y.

4.   Ajuste del modelo determinístico: Para encontrar los mejores estimados de los parámetros desconocidos en el modelo propuesto.

     Los experimentos de tamizado deben hacerse al comienzo de un estudio experimental, cuando hay numerosas variables que potencialmente pueden incluir en la respuesta. Es necesario discriminar entre ellas las verdaderamente importante. Esta es la esencia de este tipo de experimentos los que deben ser bien diseñados estadísticamente para poder determinar también las interacciones entre las variables.

      La construcción de modelos empíricos se hace  necesario en  aquellas situaciones en que no es factible la obtención de un modelo determinístico. En esas situaciones resulta útil, un modelo aproximado que representa adecuadamente el comportamiento del proceso bajo estudio en a región de interés. Los modelos determinísticos, por otra parte, casi siempre son no lineales y la estimación de los parámetros de los mismos puede resultar difícil.

     Por lo tanto, el objetivo de las investigaciones generalmente es establecer un modelo matemático del proceso y pueden haber dos casos (Köllner, 1973):

1.   El modelo se puede desarrollar teóricamente y por ello en el trabajo experimental sólo se necesita comprobar el modelo y determinar los coeficientes desconocidos del mismo.

2.   Con el nivel de conocimientos presentes no se puede deducir un modelo justificado en forma teórica y por ella la dependencia entre las variables tiene que determinarse experimentalmente, escogiendo previamente las variables significativas del proceso.

       Generalmente no se conoce la forma del modelo a ajustar; en ese caso es recomendable comenzar con un modelo lo más simple posible. La información acerca del modelo del proceso debe ser, por supuesto, muy precisa, pero esto puede lograrse haciendo un número de corridas experimentales lo suficientemente grande. Sin embargo esta solución, por supuesto, es cara, y una forma de lograr los mismos objetivos con menos recursos es localizando los valores de las variables independientes estratégicamente para cada corrida experimental. Por tanto, si los experimentos se planifican adecuadamente, se obtiene la información deseada en una forma eficiente.

       Un plan experimental bien diseñado y su posterior ejecución ayuda en la selección de un mejor modelo, dentro de un conjunto de modelos posibles y la estimación eficiente de los parámetros en el modelo seleccionado. Ambos objetivos se investigan simultáneamente y casi siempre en forma secuencial, porque el experimentador generalmente no conoce qué variables deben medirse, cuál es el rango en que las variables se deben medir ni qué series de experimentos deben hacerse hasta que el programa experimental esté al menos parcialmente ejecutado. Generalmente un plan experimental comienza con una hipótesis expresada en forma de un modelo matemático.

     Para probar la hipótesis se lleva a cabo un experimento, el cual, para obtener la información, se debe diseñar adecuadamente. Los datos obtenidos del experimento tienen que analizarse para evaluar la hipótesis original. Los resultados experimentales pueden conducir a modificar la hipótesis, en cuyo caso una nueva hipótesis se formula o se confirma. En el primer caso, la nueva hipótesis debe ser probada, para lo cual debe efectuarse otro plan experimental, y así se continúa hasta obtener resultados satisfactorios. Un experimento es, por tanto, sólo una etapa que ayuda a la comprensión del proceso bajo estudio. El investigador debe analizar cuidadosamente los resultados de sus experimentos, para determinar las direcciones en que los cambios son realmente sustanciales.

      Este proceso iterativo que caracteriza la investigación científica se muestra de forma esquemática en la siguiente Figura 6.1. En esa figura se muestran los dos papeles distintos que la Estadística puede desempeñar: diseño y análisis. De ellas, el más importante es el primero, el diseño: poca información útil puede sacarse de los datos obtenidos en un experimento que no se ha planificado cuidadosamente. Sin embargo, con un diseño adecuado, se puede obtener una clara visión de la situación con métodos de análisis simples.

 

FIGURA 5.1 . Proceso Iterativo de la Investigación Científica (Tomado de Guerra y Sevilla, 1987)

 

     Por lo antes expuesto y dada la importancia que tienen la Modelación Matemática y el Diseño Estadístico de Experimentos para este objetivo, este Capítulo se dedicará totalmente a repasar los conceptos fundamentales de estas técnicas, enfatizando en su realización práctica mediante la utilización de los software  especializados  como el BioPro Designer para la simulación de los procesos industriales biotecnológicos y el  STATGRAPHIC en sus versiones para DOS y para Windows y el STATISTICA para Windows, para el Diseño de Experimentos.

      Por otra parte, los experimentos que se requieren para la aplicación de las técnicas del Diseño Estadístico de Experimentos, se tomarán principalmente de ejemplos de los Procesos de la Industria Biotecnológica y en lugar de la ejecución real de los experimentos  se realizarán simulaciones en computadora, con el empleo de modelos matemáticos desarrollados al efecto (González, R., 1996).

5.2 Simulación Matemática de los procesos  Industriales.

5.2.1 Definiciones fundamentales. 

     Se define sistema como un conjunto de elementos en el cual todos se encuentran tan estrechamente vinculados entre sí, que en relación con las condiciones circundantes se presentan como un todo único. Existen muchos tipos de sistemas, pero en este capítulo estudiaremos los sistemas de los Procesos Industriales. , definidos éstos como el conjunto de procesos físicos, químicos, bioquímicos y microbiológicos, relacionados con la obtención de un producto o un grupo de productos dados .

      Para el estudio de los sistemas resultan fundamentales los conceptos de modelo y simulación. Por modelo se define la representación (imagen) de una realidad objetiva, a una escala igual o diferente a la original y, los mismos pueden ser de diferentes tipos: analógicos, físicos, matemáticos, siendo en este caso de especial interés los modelos matemáticos. Por simulación se entiende el estudio de un sistema mediante uno o más modelos, y si los modelos a emplear son matemáticos, se tiene entonces una simulación matemática.

     Otra definición de simulación ( González, V., 1987),  es la que plantea que la simulación es un procedimiento para la realización de experimentos por medio de una computadora digital y con la ayuda de modelos matemáticos, con el fin de obtener información sobre el comportamiento del sistema. En general, mediante las técnica de simulación se pueden analizar el efecto de las interrelaciones de un sistema o proceso dado, determinar las recirculaciones (de materiales, energía o información), hacer estudios de capacidad, detectar cuellos de botella, definir las condiciones límites de operación y otras aplicaciones más.

     Por ello, la realización previa de los modelos que definen el comportamiento individual de cada elemento de un sistema o proceso, permite el estudio integral de dichos procesos, mediante su simulación matemática y se llega por lo tanto al concepto de Análisis de Procesos, que es la habilidad de convertir un problema de Ingeniería en una formulación matemática, para obtener la información final del problema, mediante la aplicación de las técnicas de computación.

    Teniendo en cuenta estos elementos, no se puede considerar a la Modelación Matemática como un fin en si mismo, sino como un paso hacia la simulación y a su vez la simulación se debe considerar como una herramienta a utilizar en el Análisis de Procesos en general y en este caso, en los Procesos Industriales. No obstante la modelación matemática constituye  una primera etapa obligada para realizar la simulación y el análisis de procesos.

5.2.2 Utilización de los software para la simulación de procesos biotecnológicos.

    Para seleccionar la herramienta de simulación a utilizar, depende de que la etapa del proceso general de escalado que se esté desarrollando. Cuando se trata de las etapas iniciales (laboratorio y banco fundamentalmente), prácticamente sólo interesa el bioreactor y por lo tanto puede utilizarse un simulador sencillo.

     A manera de ejemplo se presenta en el material complementario a este Capitulo, un ejemplo de aplicación del programa de simulación SIMBAS (acrónimo de Simulación en BASIC), desarrollado por Bungay, (1993). Con el programa SIMBAS se pueden simular procesos descritos por un sistema de ecuaciones diferenciales  y con el mismo se han desarrollado un grupo de modelos de los procesos Biotecnológicos, que constituyen una gran parte de los materiales complementarios del presente curso.

     También es posible utilizar los paquetes de programas matemáticos como el MATEMATICA, el DERIVE o el TK SOLVER Plus (Hughson, R. V., 1993), los cuales permiten evaluar los sistemas de ecuaciones diferenciales o algebraicos que se requieren para los modelos de los bioreactores y demás componentes de los sistemas biotecnológicos, utilizándose también las facilidades de construcción de gráficos que tienen esos programas.  Además existe la variante de utilizar cualquiera de los tabuladores electrónicos (spreadsheets) disponibles , como el EXCEL de Microsoft, con los cuales también se puede desarrollar adecuadamente el proceso iterativo requerido para la solución de los sistemas de ecuaciones diferenciales u ordinarias que constituyen un modelo matemático y presentar los resultados en forma de tablas y gráficos (Ravella, A., 1993). 

      Cuando se está en una etapa posterior, como la planta piloto o la instalación semi-industrial, hay que tener en cuenta todas las etapas del proceso, o sea las operaciones de tratamiento previo, la bioreacción y el procesamiento de los productos, por lo cual se necesita contar, con un software capaz de analizar el proceso en su conjunto.

    Esa tarea se facilita enormemente cuando se emplean los software de simulación de procesos industriales, especialmente diseñados al efecto, de los cuales existen una gran cantidad disponibles en el mercado, aunque principalmente han sido desarrollados  para las industrias química, minera, energética y mecánica (Winter, 1992; Boston et al, 1993).

     Uno de los más empleados en la actualidad  es el  ASPEN PLUS, el cual incluye un módulo  para Biotecnología, denominado BPS (Shioya y Suga, 1993), pero tiene el inconveniente que debe ser adquirido el paquete de programas básico, además del módulo específico, lo que lo  hace una opción muy cara para los usuarios cuyo único interés es la Biotecnología (González, R. A et al, 1995). Una opción mejor es utilizar un simulador específico y para ello se cuenta desde hace poco tiempo con el BioPro Designer, desarrollado en el MIT y actualmente en explotación comercial (Aelion y Petrides, 1994).

       El BioPro Designer tiene las siguientes características:

 

     Interfase gráfica interactiva

     Modelos matemáticos de aproximadamente 40 Operaciones Unitarias empleadas en la Industria Bioquímica y también en otras industrias de procesos.

     Balances de materiales y energía para diagramas de flujos integrados con lazos de recirculación.  

     Estimado de tamaño y costo de equipos

     Reportes detallados de las corrientes y de las evaluaciones económicas.

     Programación de procesos discontinuos y semicontinuos.

     Ayuda en línea.

 

5.2.3 Descripción del simulador para procesos biotecnológicos BioPro Designer.

Descripción general.

     El BioPro Designer es  un simulador secuencial modular, mediante el cual el usuario puede construir un diagrama de flujos con balances de materiales y energía (flowsheet), seleccionando las operaciones unitarias que lo componen de la biblioteca disponible en el simulador, especificando sus datos característicos y conectándolos entre si con las corrientes correspondientes. Este simulador es totalmente comandado por menús y tiene una interfase muy interactiva con el usuario, en el ambiente Windows o Macintosh. En la figura 5.1 se muestra un ambiente de trabajo típico de este simulador.

      Este software guía al usuario a través de las etapas necesarias para el desarrollo del flowsheet a través del menú Tasks (Tareas)  (Figura 5.3).Además, antes de resolver los balances de materiales y energía necesarios  el BioPro Designer chequea que esté correctamente inicializado el flowsheet y recomienda al usuario completar cualquier etapa que haya quedado pendiente.

Figura 5.2 Ambiente de trabajo del BioPro Designer (De Aelion y Petrides, 1994).

Figura 5.3 Menú Tasks para el desarrollo interactivo de los diagramas de flujos en el BioPro Designer (De Aelio y Petrides, 1994)..

Operaciones Unitarias.

     El BioPro Designer ofrece una amplia variedad de Operaciones Unitarias utilizadas en las industrias bioquímica, farmacéutica y otras industrias de proceso. En la tabla 5.1 se muestra una relación de las operaciones unitarias disponibles actualmente. Los modelos de todas esas Operaciones Unitarias son algebraicos y pueden ser especificados tanto para estado estacionario como para operaciones discontinuas o discontinuas incrementadas. Muchos de los parámetros de diseño y condiciones de operación de dichas Operaciones Unitarias tienen valores por defecto, lo que facilita una inicialización rápida y un bosquejo preliminar rápido de las distintas alternativas de operación.

     Un modelo típico es el de un diafiltro (Figura 5.4). Un diafiltro es un equipo que emplea membranas de separación para mejorar la purificación de sólidos retenidos, al cual se le añade un solvente para ayudar a remover las especies permeables a la membrana. Estos equipos trabajan

Tabla 5.1 Operaciones Unitarias en el BioPro Designer (Tomado de Aelion y Petrides,

 1994).

 

Reacciones

Separaciones fases

Fermentadores Cont. y Discont.

Extractor Centrífugo

Fermentador airlift

Extractor Diferencial

Reactor Perfectamente Mezclado

Extractor Mezclador-Sedimentador

Reactor Flujo Pistón

Destilación (Método corto)

Reactor  Cama Fluidizada

Evaporación Súbita (Flash)

Ruptura celular

Cristalizador

Homogeneizador a alta presión

Tanque de Decantación

Molino de Perlas

Secado/Evaporación

Separaciones Mecánicas

Liofilización

Microfiltros de Membrana

Secador de Platos

Ultrafiltro de Membrana

Secador Cama Fluidizada

Diafiltro

Secador Rotatorio

Osmosis Reversa

Evaporación Súbita

Filtro Dead-End

Evaporador Rotatorio

Filtro de Aire

Otras Op. Unitarias

Filtro Prensa

Compresores

Filtro Rotatorio al Vacío

Ventilador/Soplador

Centrífuga de Filtro en Cesta

Bombas

Centrífuga de Discos

Calentador/Intercamb.

Centrífuga Decantadora

Esterilización Térmica

Centrífuga de vaso

Mezclador Flujo Gen.

Ciclón/Hidrociclón

Separador Comp. y/o Flujo

Cromatografía

Tanques  almacenamiento

Filtración por Gel

Tanques de mezclado

Intercambio Iónico

Adsorción Carbón Activado

Fase Reversa

 

Afinidad

 

 

comúnmente en forma discontinua, pero pueden emplearse también en forma continua. En la operación discontinua, los solutos permeables se clarifican del retenido por reducción de volumen, a lo que sigue re-dilución y re-filtración, de forma repetitiva. Cuando en cada etapa ocurre una reducción de volumen igual ocurre, la fracción final de un componente (Fi) que permanece en el retenido se estima por la siguiente ecuación:

                            (5.1)

Figura 5.4 Icono para un diafiltro en el BioPro Designer (Aelion y Petrides, 1994).

 

donde (CF) es el factor de concentración en cada etapa, n es el número de etapas de reducción de volumen y RCi es el coeficiente de rechazo promedio del soluto (i). El volumen de agua u otro solvente, requerido para la dilución se estima mediante la ecuación siguiente:

              (5.2)

donde Vo es el volumen de alimentación inicial. El valor del volumen de diluyente se utiliza para ajustar la tasa de flujo de la corriente de diluyente.

       En el caso de la operación continua, esta conlleva la adición de solvente con un pH y temperatura apropiados, al tanque de alimentación a la misma tasa que el flux de permeado, de forma tal de que se mantenga constante el volumen de alimentación durante el proceso. Los solutos permeables se eliminan a la misma tasa que el flux. Este modo de diafiltración es particularmente útil cuando la concentración del soluto retenido es muy alta para permitir una efectiva operación de diafiltración discontinua. La fracción de soluto que queda en el  retenido se estima por la siguiente ecuación:

                              (5.3)

donde (VPR) es la relación de permeación volumétrica. definida de la forma siguiente:

(5.4)

        A su vez, el volumen de agua u otro solvente requerido para la dilución se estima por la siguiente ecuación:

                          (5.5)

donde Vo es el volumen inicial de alimentación y el valor del volumen de diluyente se utiliza para ajustar la tasa de flujo de la corriente de diluyente, de igual manera que en el caso de la diafiltración discontinua.

     Todas las Operaciones Unitarias se inicializan activamente a través de una serie de ventanas de diálogo. En las figuras  5.4 a y b,  se muestran las ventanas de inicialización para un diafiltro. Los números presentes en las ventanas son los valores por defecto, recomendados por BioPro Designer.

Figura 5.4 (a-b) Caja de diálogo para un Diafiltro en el BioPro Designer (De Aelion yPetrides, 1994).

5.3 Conceptos básicos del Diseño Estadístico de Experimentos.

        El Diseño de un Experimento consiste en planificar los experimentos de la forma más racional posible, de manera que los datos obtenidos puedan ser procesados adecuadamente y que mediante un análisis objetivo conduzcan a deducciones aceptables del problema planteado, para lo cual se sobreentiende que la persona que formula el diseño conozca los objetivos de la investigación propuesta.

     Antes de comenzar el trabajo experimental se debe, por lo tanto, tener la información requerida del sistema que permita contestar a las interrogantes siguientes:

1.   ¿Cuáles son las propiedades de sistema que se van a estudiar?, o sea los llamados rendimientos o variables dependientes.

2.   ¿Qué factores afectan a estos rendimientos?, es decir qué parámetros o variables independientes que determinarán los rendimientos y si se podrán controlar o medir adecuadamente.

3.   ¿Qué factores se estudiarán y cuáles permanecerán constantes?

4.   ¿Cuántas veces se deben repetir los experimentos?

5.   ¿Qué cantidad de experiencias se deben efectuar?

6.   ¿Cómo se deben realizar las experiencias?

Algunas de estas preguntas sólo se pueden responder por el conocimiento científico-técnico del sistema, como por ejemplo las tres primeras, mientras que las restantes requieren del conocimiento científico-técnico, del diseño estadístico de experimentos y de la lógica para su contestación.

         El proceso de investigación en general, independientemente de le escala en que se halle (laboratorio, banco o piloto), se desarrolla a través de una serie de etapas bien definidas:  familiarización, tamizado  de variables y optimización.

         En la  etapa de familiarización,  el investigador se familiariza con el nuevo sistema estudiar. Por ejemplo, en la etapa de laboratorio (Murphy, 1977) esto puede ser   el tratar de reproducir resultados descritos en las patentes o en experimentos de estudios anteriores, o aprender a trabajar con un equipamiento nuevo. En una planta piloto  (Köllner, 1973), esta etapa se refiere a la serie de corridas preliminares  que deben realizarse para poder probar todos los componentes de la planta, incluyendo los equipos de medición y control. Además es necesario determinar el tiempo de trasiente entre dos estados estacionarios del proceso, o sea el tiempo que se requiere para que se alcance el estado estacionario, después de una variación en las condiciones del proceso.

        En esa etapa inicial de  familiarización no resulta de utilidad el Diseño Estadístico de Experimentos, ya que la mayoría de las experiencias se realiza de una forma intuitiva.  Sin embargo, en todo el proceso posterior, comenzando con el Tamizado de Variables, resulta imprescindible la utilización del  Diseño Estadístico de Experimentos y por ello no se debe comenzar ningún trabajo experimental sin hacer previamente algún tipo de diseño pues puede ocurrir, si esto no se hace, que al final los datos obtenidos no sean capaces de permitir el análisis de los efectos buscados. 

       Desafortunadamente muchas veces se trata de llevar el enfoque de la etapa inicial de familiarización al resto de los trabajos y  todavía persisten en muchos investigadores la costumbre de iniciar sus trabajos sobre un sistema nuevo y, por lo tanto poco conocido, mediante métodos de tanteo intuitivos con el pretexto de no poder aplicar las herramientas estadísticas hasta que no se tenga un conocimiento más amplio del sistema (López, R., 1988).

     Este proceder erróneo provoca la realización de un gran número de experiencias preliminares antes de que se logre obtener de verdad información orientadora. En realidad es precisamente al comenzar el estudio de un sistema nuevo, cuando es más recomendable iniciar la investigación aplicando técnicas de Diseño Estadístico de Experimentos, especialmente de aquellas con las cuales se puede estudiar el efecto de algunas variables en conjunto y definir sobre una base sólida, cuáles de éstas son significativas (Tamizado de Variables).

      En general se puede decir que hay tres principios básicos del Diseño Experimental:

    Reproducción : Es la repetición del experimento básico para estimar el error puro o aleatorio, que permitirá determinar si las diferencias observadas son significativas o no.

    Aleatorización: En la mayoría de las pruebas estadísticas se supone que las muestras son independientes unas de otras y que sólo están afectadas por los parámetros que se controlan. Para garantizar esto se requiere tomar las muestras al azar o aleatoriamente de la población investigada.

    Control local: Se refiere implícitamente, en primer lugar, al tipo de diseño experimental que se haya realizado y en segundo lugar a las medidas que se tomar para controlar el proceso experimental como por ejemplo:

                       1- Utilizar material o bloqueo experimental homogéneo para la estratificación cuidadosa del   

                           material disponible.

                       2- Dirigir el experimento cuidadosamente.

                       3- Considerar las posibles variantes aleatorias

                       4- Emplear las técnicas analíticas y los equipos de control más adecuados.

          Por último se debe señalar que es conveniente discernir dos grandes campos del Diseño  Estadístico Experimental, por una parte las Ciencias Biológicas y Agrícolas, en las que se utilizan principalmente  los diseños completamente al azar, bloques al azar y los cuadrados latinos y por otra parte las Ciencias Técnicas, Química, Física y Farmacéuticas y algunos campos de las Ciencias Biológicas como la Microbiología y la Genética Microbiana,  en las cuales existe la posibilidad de controlar un número finito de variables, en cuyo  caso se emplean principalmente los Diseños Factoriales.

     En este Capítulo se dará sólo una visión breve y general del Diseño Experimental en Biología y Agronomía y se estudiará con más detalles el Diseño Experimental aplicable a las Ciencias Técnicas, Física, Química y Farmacéutica y la Microbiología, haciendo énfasis en su aplicación práctica mediante la utilización de los paquetes de programas estadísticos especializados. Para un análisis más detallado del Diseño Experimental en el campo de la Biología y la Agronomía se deben consultar textos especializados como "La Experimentación en las Ciencias Biológicas y Agrícolas ", (Lerch ,1977).

 

5.3.1 El Diseño Experimental en Biología y Agronomía.

 Diseños completamente al azar, bloques al azar y cuadrados latinos.   

     Estos tipos de diseño son los más utilizados en la investigación biológica y agronómica.

     Un diseño completamente al azar, es un diseño en el cual los tratamientos a las unidades experimentales se realizan aleatoriamente , o sea que no se imponen restricciones en la distribución de los experimentos a estas unidades. Por ser tan simple, es un diseño muy utilizado, sin embargo hay que tener en cuenta que sólo deben ser aplicados a unidades experimentales homogéneas..

    Ejemplo de clasificación simple:

     Se desea estudiar el efecto de distintos tipos de alimentación en 30 cerditos seleccionados para los cuales se asume que sean similares en su comportamiento. No obstante esto, siempre existe la posibilidad de que existan diferencias entre ellos, por lo que resulta conveniente realizar las experiencias aleatoriamente, o sea, asignarle al azar un orden de ejecución a la aplicación de los alimentos a los cerditos. Esto se puede efectuar numerando simbólicamente los cerditos del 1 al 30, colocar 30 papeles numerados en una bolsa y sacar los números al azar. El primer número que salga recibirá el tratamiento F-1, el segundo el tratamiento F-2 y así sucesivamente.

     El diseño en bloques al azar es, sin lugar a dudas,  el diseño más utilizado en la investigación agrícola y biológica y en el mismo las unidades experimentales se distribuyen en grupos o bloques, de manera que las unidades experimentales dentro de un bloque sean realmente homogéneas, y el número de unidades experimentales dentro de él, sea igual al número de tratamientos por investigar (López, R., 1988). En este caso se asignan al azar los tratamientos a las unidades experimentales dentro de cada bloque y la formación de bloques refleja el criterio del investigador respecto a las respuestas diferenciales potenciales de las diversas unidades experimentales, mientras que el proceso de aleatorización actúa como una justificación de la suposición de independencia.

    Ejemplo:

     Se desea probar el efecto de 10 tipos de alimentación en 40 cerditos, que se distribuyen en 4 bloques de acuerdo con sus pesos iniciales. Los cerditos más pesados  se agrupan en el primer bloque (10 cerditos) y así sucesivamente. Los 10 tratamientos (desde A hasta J) se asignan al azar, como se muestra a continuación:

 

Bloque

Tratamiento

 

1

H

B

F

A

C

I

E

J

D

G

2

A

I

G

H

J

D

F

E

C

B

3

E

A

C

I

B

H

D

G

J

F

4

J

F

D

B

H

I

A

C

G

E

 

     En el Diseño en Cuadrados Latinos,  el número de réplicas debe ser igual al número de variantes o tratamientos, los cuales se distribuyen al azar. Como ejemplo de la aplicación de esta técnica se tiene el caso en que se desean probar 5 tipos de herbicidas en una siembra de caña. Se requiere dividir el terreno en 5 franjas (A, B, C, D y E) de acuerdo con su fertilidad (franjas de alto y bajo rendimiento) y dentro de cada franja se toman 5 parcelas, una para cada tratamiento, como se muestra a continuación:

 

Franja

Parcela

 

1

C

A

E

B

D

2

B

E

D

A

C

3

D

C

B

E

A

4

E

D

A

C

B

5

A

B

C

D

E

 

Análisis de Varianza y Prueba de Duncan.

    Frecuentemente se presenta en la investigación agrícola y biológica el estudio de múltiples variantes, donde se deben tener en cuenta los efectos producidos por varios factores. En estos casos resulta conveniente planificar las experiencias de acuerdo con las diversas posibilidades, por ejemplo, mediante diseños completamente aleatorizados, bloques aleatorizados, cuadrados latinos o rectángulos latinos y procesar los resultados por medio del análisis de  Varianza para determinar si existe variabilidad significativa entre los tratamientos. Si se desean comparar las medias se podría usar la prueba t de Student, realizada una tras otra (cada vez con dos medias) con todas las parejas de valores posibles, pero además de perderse mucho tiempo no es del todo correcto, pues esta prueba se ha desarrollado para comparar sólo dos muestras (de distribución normal); así, en este caso se prefiere la prueba de Duncan.

       Para definir el tipo de Análisis de Varianza a aplicar se parte del número de factores (variables independientes) que se han investigado en un experimento dado.

      Siempre que sea posible es preferible considerar muestras de igual tamaño para simplificar los resultados y aumentar la precisión de las conclusiones. Las variaciones experimentales son el resultado del cambio de un solo  factor; por ejemplo: distintas concentraciones de un nutriente en una dieta, distintas formas de realizar una experiencia, etc. En esos casos  resulta  muy común emplear los diseños completamente al azar y  se pueden emplear entonces los Análisis de Varianza de clasificación simple, la prueba múltiple de t o la  mínima diferencia significativa, aunque se prefiere en la actualidad el uso de la prueba de Duncan o de rango múltiple.

     Cuando se estudia el efecto combinado de dos factores, como por ejemplo el tipo de alimentación y peso inicial de los animales de experimentación; variedad de una planta y tipo de suelos, etc., es necesario  utilizar entonces el método de Análisis de Varianza de clasificación doble, complementado con la prueba de Duncan. En este tipo de experimentos el número total de variantes a estudiar es igual al producto de los niveles del primer factor por los niveles del segundo factor y se organizan ya sea por el método de los bloques al azar o por los cuadrados latinos.

     En la actualidad existen otros diversos tipos de diseños en los experimentos biológicos y agronómicos que se han adecuado para situaciones particulares, como por ejemplo, los métodos de clasificación triple, etc., que pueden ser consultados en textos especializados (Lerch, 1977.).

 

5.3.2 El Diseño Experimental Estadístico  en las Ciencias Técnicas, Químicas, Físicas , Farmacéuticas y la Biotecnología.

 

 Introducción.

     En este campo de trabajo es usual trabajar con pocas variables,  conocidas y casi siempre controlables, por lo que se planifican los experimentos con vistas a obtener modelos matemáticos, empíricos, o mecanísticos, que describan el sistema estudiado. Aquí es importante destacar que este tipo de situaciones no se observa sólo en estas ciencias, sino que se observa también en algunos campos de las ciencias biológicas, como por ejemplo en la microbiología y en la genética microbiana.

     En este punto resulta conveniente definir la palabra experimento, puesto que puede resultar ambigua, al igual que otros términos utilizados en un diseño estadístico. En este tipo de problemas, una corrida experimental (o simplemente una corrida como se nombra usualmente), es simplemente un experimento único, mientras que un grupo de corridas, dirigidas hacia la obtención de algún objetivo, se denomina Diseño Experimental o simplemente diseño.

     La anatomía de una corrida se representa en la Figura 6.2 (Murphy, 1977). El resultado de la corrida es una respuesta obtenida o observación hecha en una unidad experimental. El valor de la respuesta para cualquier corrida, dependerá de los ajustes de una o más variables experimentales o factores, los cuales están bajo el control directo del investigador.                    Figura 5.6 Representación de una Corrida experimental (Tomado de Murphy, 1977).

 

     Desafortunadamente para los experimentadores, este cuadro de una corrida experimental incluye además

muchas variables no controladas y a veces incluso desconocidas, que también influyen en la respuesta y que tienden a provocar variaciones tanto sistemáticas como aleatorias que tienden a enmascarar los efectos verdaderos de los factores en la respuesta. Como ejemplo de dichas variables están el efecto sistemático de las condiciones ambientes y las diferencias en el equipamiento, material de arrancada y técnicas empleadas en los experimentos. Variaciones aleatorias se pueden producir también por errores en las pesadas, en la transferencia de materiales y en la lectura de instrumentos. Por todo esto, un buen Diseño Experimental debe considerar las posibilidades de impacto de ese tipo de variables, en la  posibilidad de sacar conclusiones adecuadas de los experimentos y poder alcanzar los objetivos experimentales.

     Los principales elementos en general, que se deben considerar en un Diseño Estadístico de Experimentos, se presentan en la Tabla 5.2. El primero resulta obvio, no obstante es sorprendente como en muchos casos no se llegan a resultados adecuados por defectos en el planteamiento inicial del problema. La relación de variables de respuesta también resulta de vital importancia y ya no resulta obvia. Las respuestas pueden ser cuantitativas (continuas), cualitativas (discontinuas) y binarias. De ellas las de más fácil manejo son las continuas y para las discontinuas una buena solución es evaluarlas en una escala numérica, por ejemplo de 5 a 10, convirtiendo así la respuesta a una variable semi-cuantitativa. En el caso de las binarias, puede tratarse también de llevar a formas discontinuas, pero muy frecuentemente se necesitan emplear técnicas especiales para su manejo.

    Los factores o variables independientes experimentales, son controladas por el experimentador y el nivel de un factor es el valor fijado para el factor durante una corrida experimental. Al igual que las respuestas, los factores pueden ser clasificados de acuerdo con la escala de medición, como continuos o cuantitativos como el tiempo y la temperatura y cualitativos, discontinuos  o categóricos como el tipo de catalizador o solvente empleado. También en este caso son más difíciles de manejar los discontinuos y la solución común es emplear dos niveles en el experimento, definiendo con (+1) o simplemente con el signo (+) la presencia o el carácter positivo del factor y con (-1) o con el signo (-), lo contrario.

 

 Selección de los modelos a emplear en un Diseño Experimental. 

     Cuando la respuesta y los factores son continuos, se debe  considerar la relación factor/respuesta en términos de una función matemática o modelo. En las primeras etapas de la investigación, cuando se conoce poco sobre la verdadera relación factor/respuesta, resulta suficiente considerar un modelo empírico sencillo tal como un polinomio de primero o segundo orden. Ya en etapas más avanzadas de la investigación puede considerarse un modelo determinístico, derivado de los principios fundamentales, ya que con ese tipo de modelos puede obtenerse la requerida precisión en la predicción en un amplio rango de condiciones.

    En el  caso de un factor único, el modelo empírico más simple es la función de primer orden :

                                         (5.6)

Los parámetros del modelo, B0 y B1, se denominan intercepto  y pendiente respectivamente. Ese modelo se muestra en la Figura 6.3 y resulta útil para predecir la respuesta Y en un rango limitado del factor X. También resulta útil en la etapa de

Tabla 5.2 Elementos del Diseño Estadístico

de Experimentos (de Murphy, 1977)              

1

Planteamiento del problema

2

Relación de variables de respuesta

3

Relación de factores variables

4

Modelo Matemático

5

Elección de niveles para los factores

6

Tamaño del diseño

7

Orden de la Experimentación

8

Registro de los datos

 

Tamizado de Variables, cuando el interés debe centrarse en los factores que tienen un mayor efecto en la respuesta Y. En ese caso, si b1 tiene un valor cercano a cero, se dice que el factor no tiene un efecto significativo en la respuesta.

 

     En general se tiene la tendencia a considerar que la relación factor/respuesta tiene una forma curva y en ese caso se obtiene una mejor representación con la función de segundo orden  (Figura 5.6):

                        (5.7)

 

     Aquí es posible determinar un óptimo grosero, localizado en un nivel del factor igual a -B1/2B11. Por su parte, al  coeficiente B11 se le denomina coeficiente de curvatura. Si   B11 es cercano a cero, se dice entonces que la respuesta no tiene curvatura y por ello es aproximadamente de primer orden, es decir lineal, con respecto al factor X.

     Para el caso de la existencia de dos o más factores, puede existir una situación más complicada conocida como interacción, lo que significa que los factores no operan independientemente sobre la respuesta. En el caso de que exista independencia en lugar de interacción, se dice entonces que los factores son aditivos. Cuando no hay  o es muy poca la curvatura  con respecto  a cualquiera de los factores, el modelo más simple para dos factores es:

   (5.8)

en el cual B1 y B2 son las pendientes correspondientes a los factores X1 y X2, respectivamente, mientras que B12 es el parámetro de interacción y cuando el mismo se hace cero, se está en presencia de un modelo aditivo de primer orden. En ese caso cuando se grafica Y vs. X1 para dos valores constantes de X2  cualesquiera, se obtienen dos líneas rectas paralelas  (Figura 6.5).  Cuando el término B12 tiene un valor distinto de cero el modelo es interactivo. En ese caso un gráfico de Y vs. X1 para dos valores constantes de  X2 produce dos líneas rectas no pararelas (Figura 6.6).

 

     Cuando la relación existente entre la respuesta y un factor es de forma curva, entonces debe añadirse un término cuadrático o de curvatura. En ese caso el modelo completo de segundo orden sería:

  (5.9)

     Este tipo de modelos puede brindar una excelente descripción de la respuesta dentro de la región de experimentación y puede usar para propósitos de interpolación o para encontrar un óptimo interno grosero, si éste existe. En la figura 6.7 se presenta un gráfico de Y vs. X1 para valores constantes de X2. Otra forma útil de presentar esta relación es mediante un mapeo de los contornos de la superficie respuesta Y sobre el espacio factorial definido por los valores de X1 y de  X2 (Figura 6.8). Este gráfico indica una respuesta máxima cerca del centro del espacio factorial.  Sin embargo, es importante enfatizar que este tipo de modelos empíricos de segundo orden, son muy poco confiables para predicciones fuera del rango de experimentación en que han sido ajustados.

 

Figura 5.12 Grafico de contornos de Y vs. X1 y X2.

 

     Para el caso general de n factores, el modelo empírico general de segundo orden será:

                                                                     (5.10)

el cual tiene  parámetros a ser estimado. Puesto que este número de parámetros puede llegar a ser muy grande rápidamente cuando se incrementa n, generalmente se asume un modelo más sencillo (por ejemplo un modelo de primer orden)  al inicio de la investigación, cuando el número de factores considerados es muy elevado y cuando el número de factores se va reduciendo, el modelo se puede ampliar a uno de segundo orden, parcial o total o incluso a un modelo teórico (determinístico).

 

Selección del nivel de los factores.

     Otro elemento importante a considerar es la selección del nivel de los factores, ya que un Diseño Experimental  consiste precisamente en un conjunto de corridas experimentales, cada una de ellas definidas como una combinación de los niveles de los factores. La elección de estos niveles es influenciada considerablemente por el tipo de modelo matemático en consideración. Por consiguiente un Diseño Experimental   se determina por el número y tipo de los factores en unión con el tipo de modelo a emplear.

     Para el caso más simple, de un factor único y un modelo de primer orden, sólo son necesarios dos niveles del factor para estimar los parámetros B1 y B0. En esta discusión esos dos valores se pueden codificar como alto y bajo o (+1) y (-1) o simplemente (+) y (-). El cambio en la respuesta entre esos dos niveles se denomina el efecto principal del factor (Figura 6.9). Como el error aleatorio puede fácilmente oscurecer el efecto principal si los niveles se toman muy cercanos, el efecto principal  puede ser estimado de manera más precisa si los factores se ajustan a niveles suficientemente separados.

     Si se considera un modelo de segundo orden, se necesita un tercer nivel del factor para estimar el parámetro de curvatura  B11. Ese tercer nivel normalmente se sitúa a medio camino entre los niveles extremos del factor y se denomina como punto central y se   codifica como medio o (0). El efecto de curvatura se define entonces como la diferencia entre la respuesta experimental del punto central y la respuesta esperada de un modelo de primer orden que se ajuste a los puntos extremos (Figura 6.10).

 

     En la práctica es difícil que se necesiten más de tres o cuatro niveles para un factor, excepto en los casos en que se trata de seleccionar el mejor modelo teórico a emplear y pueden ser necesarios entonces más niveles de los factores para poder seleccionar entre muchos modelos candidatos (Murphy, 1977).

     Para más de un factor, cada corrida experimental se define como una combinación de niveles de factores. Por ejemplo, en el caso de dos factores, el efecto de interacción debe ser estimado de forma adicional a los dos efectos principales y para ello el mínimo número de corridas debe ser cuatro, puesto que se deben estimar las dos pendientes de la relación Y vs. X1 y comparar esas pendientes a dos valores de X2 para chequear si hay o no interacción. Si el efecto de interacción es cero, las líneas son paralelas, como ocurre en la Figura 6.5.

     Las cuatro corridas mencionadas anteriormente se conocen como un Diseño Factorial 22 y es un miembro de la clase de diseños conocida como Factoriales 2n, o sea n factores por corrida, cada uno de los cuales se evalúa a dos niveles y se tienen en cuenta todas las combinaciones posibles entre dichos niveles y factores. Las combinaciones de niveles factoriales en los diseños 22 y 23 se presentan en las figuras  6.11 y 6.12, representadas

.como las esquinas de un cuadrado y un cubo respectivamente.

Figura 5. 17 Combinaciones de los niveles factoriales en los diseños 22 y 23 (De Murphy, 1977).

      El efecto de curvatura se puede estimar en este tipo de diseño, añadiendo un tercer nivel de cada factor en diversas combinaciones de los factores restantes. Sin embargo, en las etapas iniciales de investigación es más económico analizar la curvatura global del sistema y eso puede ser hecho mediante la adición de una combinación de todos los factores en el punto central, localizado en el centroide del diseño y en el caso de los diseños 22  y 23  la corrida en el punto central se localiza en los centros del cuadrado y del cubo respectivamente, como se muestra en la Figura 5.18.

Figura 5.18 Ubicación de puntos de réplica en el centro del diseño (Murphy, 1977).

    Si la corrida en el punto central detecta un efecto de curvatura global apreciable, se deberán realizar entonces corridas adicionales para obtener estimados separados del efecto de curvatura para cada factor. Esas corridas adicionales se conocen como puntos axiales o de estrella y cuando se combinan con los diseños 2n más el punto central, constituyen los denominados Diseños Compuestos Centrales (Figura 5.18). En esos casos los puntos de estrella o axiales están localizados a una distancia del punto central, la cual varía desde 1 hasta 2n/4, donde n es el número de factores.

     Una de las mayores desventajas de los Diseños Factoriales 2n es el gran número de corridas que se necesita cuando n se incrementa. Para resolver este problema, se utilizan determinadas fracciones o subconjuntos de los Diseños Factoriales Completos. Esos Diseños Factoriales Fraccionarios, se utilizan principalmente durante la etapa de Tamizado de las Variables, y pueden ser posteriormente expandidos a fracciones mayores o incluso al diseño completo, cuando el número de variables se ha reducido convenientemente. En la figura 6.16 se presenta un ejemplo de una Fracción 1/2 del Factorial 23, conocida también como factorial 23-1, en la cual cualquiera de los dos conjuntos de 4 corridas puede dar un estimado de los efectos principales de un modelo de primer orden en tres factores.

      También se emplea un variante de los Diseños Factoriales Fraccionarios conocida como Diseños Saturados,  en los cuales se pueden tratar (n-1) factores con n experimentos, o una variante de los mismos conocida como Diseños Plackett-Burman, en los cuales se tratan  un número algo menor, o sea (n-2) o (n-4) factores, para dejar de 2 a 4 columnas no asignadas para evaluar grupos de interacciones (Murphy, 1977; López, 1988). Este tipo de diseño es muy útil y muy empleado en la etapa del Tamizado de Variables. Algo más recientemente se han comenzado a aplicar las Técnicas de Diseño Robusto de Taguchi ( ), también para un gran número de variables, las cuales a su vez toman como punto de partida diversos tipos de Diseños Ortogonales.

 Tamaño del Diseño Experimental. 

     La precisión de un estimado de efecto principal,  interacción o curvatura depende del número de datos que se utilice en dicho estimado, en unión a la magnitud del error de la respuesta . En un diseño 2n, se emplean  todos las corridas para estimar los efectos principales y la interacción y por ello el experimentador debe de fijar el número total de corridas N requeridas para alcanzar la precisión deseada.

     Para hacer esto, el experimentador determina el mínimo cambio de la respuesta que resulta de interés técnico en la investigación en particular que se está llevando a cabo, el que se denota por  el símbolo . El experimento debe ser capaz de brindar esa respuesta, si existe, de manera tal que la misma pueda ser declarada estadísticamente significativa con     un alto grado de probabilidad. Para esto se toma como base la relación /, desarrollada por estadísticos y mostrada en la Figura 5.19.

Figura 5.19 Número de experimentos necesarios para un error de la respuesta dado (Murphy, 1977).

        Del análisis de la figura se comprueba que si se quiere detectar un efecto igual al doble del error de la respuesta (/ = 2), se requieren alrededor de 14 corridas, la que se reduce a sólo 7 si el efecto a detectar es 4 veces el error y se eleva a 50, si por ejemplo, la respuesta a detectar está en el mismo orden de magnitud del error de la respuesta.

      Si N es mucho más grande que el valor en el diseño que se ha escogido, basado en el modelo matemático adoptado, se hace necesario repetir, o replicar, el diseño entero una o más veces. El primer propósito de esa replicación es suministrar suficiente precisión para los estimados, pero un propósito secundario útil es suministrar un estimado más preciso del error de la respuesta (), el cual puede emplearse para determinar el tamaño requerido para los diseños sucesivos.

 

 Orden de la experimentación.

     Para prevenir las tendencias sistemáticas de variables no controladas o desconocidas, durante la ejecución del diseño, es prudente realizar de forma aleatoria las distintas corridas. Esto se puede hacer utilizando cualquier proceso de generación de números aleatorios o mediante el empleo de boletas numeradas en una caja, las que se van extrayendo al azar y definen el orden del experimento.

     También hay que considerar que las unidades experimentales no siempre son homogéneas y que pueden diferir producto de alguna variable no controlada conocida. Esta situación requiere que las unidades experimentales sean segregadas en bloques de unidades experimentales homogéneas. Cada bloque puede ser considerado como un nivel de una variable extraña o de bloque. Ejemplos de variables de bloque son las templas de materiales, el tipo de equipamiento, la estacionalidad, etc.

     El tamaño del bloque es el mínimo número de experimentos disponible en un bloque. Si el tamaño del bloque es igual o mayor que la mitad de las corridas en un Diseño Factorial, Completo o Fraccionario, el factor de bloqueo puede incluirse simplemente como otro factor en el diseño.

 

 Registro de los datos.

     Un elemento importante a considerar es el proceso de codificación y descodificación del nivel de los factores. Para el desarrollo del Diseño es conveniente, con vistas a asegurar la ortogonalidad del mismo, utilizar los niveles codificados de los factores (-1, 0, +1 y , según el caso) y posteriormente se necesita transformar esos niveles en los valores reales. Para ello se emplean las siguientes ecuaciones:

                                         (5.11)

donde Xi es el valor codificado de la variable i, Vi es el valor real de la variable. A su vez Vn es el valor promedio de la variable en el intervalo, o sea :

                                  (5.12)

y M es el módulo o recorrido de la variable que se calcula por:

                                 (5.13)

 

 

Selección del Diseño Estadístico de Experimentos a aplicar.

     Para llegar a este punto es necesario tener en cuenta los elementos estadísticos del Diseño de Experimentos que se han señalado anteriormente. Además se deben tener disponibles las siguientes informaciones:

1.   Relación de las respuestas a ser estudiadas, junto con el estimado de cada error de respuesta .

2.   Relación de los n factores a ser estudiados, junto con los rangos (niveles alto y bajo) de cada factor cuantitativo y lista de los niveles para cada factor cualitativo.

3.   Planteamiento del problema a ser investigado junto con la selección del modelo matemático adecuado.  

4.   Mínimo número de corridas necesario para obtener la precisión requerida en los estimados del efecto de los factores.

5.   Chequeo de la homogeneidad de las unidades experimentales y selección del esquema de bloques en el caso de que fuese necesario.

     Todos esos aspectos tienen que ser definidos en la etapa inicial de familiarización, con lo cual se está en condiciones de pasar a las etapas siguientes o sea al  tamizado  de variables y la optimización. En el caso de la optimización resulta conveniente analizar una primera etapa de optimización gruesa y una etapa final de optimización.

 

.Tamizado Inicial de Variables.

     El método a aplicar depende del número inicial de variables a considerar y del número mínimo de experimentos requeridos para obtener la precisión requerida. Los Planes Factoriales Completos se emplean hasta un máximo de 4 variables; para 3 o más variables y hasta aproximadamente 15 se pueden emplear los Planes Factoriales Fraccionarios y desde 5 , hasta un número que puede llegar a 100, se tienen disponibles los Diseños Saturados y los diseños de Plackett - Burman. En la figura 6. 18, se presenta el rango de aplicabilidad de los tres primeros (Factoriales Completos, Factoriales Fraccionarios y Diseños Saturados).

        Con ese tipo de diseños se pueden estimar los efectos principales  y el efecto global de curvatura y, en ciertos casos, grupos de interacciones. Después, en dependencia de los resultados experimentales, estos diseños se pueden aumentar para expandir el rango de los factores existentes y para estimar parámetros de modelos de orden mayor al segundo, en la etapa de optimización. De esa forma, las investigaciones pueden desarrollarse en etapas, y los objetivos experimentales pueden cambiar de acuerdo con los resultados de las etapas anteriores.

      Durante esta etapa de tamizado de variables, el énfasis primario se hace en la identificación de los factores más importantes y como tarea secundaria se tiene la detección grosera de los efectos de segundo orden (curvatura e interacción), así como obtener mejores estimados del error de la respuesta para su uso en las etapas posteriores de la experimentación y estos objetivos se reflejan en el tipo de modelo seleccionado, el cual es siempre de primer orden, con la adición de los efectos de interacción y curvatura, los cuales se miden de forma indirecta, ya que no son considerados en el modelo.

       Resulta evidente que la determinación de la manera de combinar los factores y niveles y la selección entre ellas de la variante más adecuada para cumplir con los objetivos de una investigación, no resulta fácil de determinar cuando el número de factores es mayor de tres, pero para facilitar esa tarea, así como la posterior evaluación de los resultados obtenidos,  se cuenta con paquetes de programas estadísticos como el STATGRAPHIC  que determinan de forma automática un grupo de combinaciones de factores y niveles necesarios, entre las cuales puede el investigador seleccionar la que mejor se adapta a sus necesidades.

      Después de escogido el diseño por este método se comienza el proceso de tamizado de las variables. La operación de selección de las variables simplemente significa realizar  pruebas de significación de cada coeficiente estimado en el modelo ajustado. Si un parámetro estimado no es significativamente diferente de cero, esto significa que las variaciones asociadas al factor, en el intervalo  seleccionado para el experimento en cuestión , produce un cambio despreciable en la respuesta y por tanto ese factor no necesita ser considerado en la optimización posterior y puede por lo tanto ser eliminado.

     Ahora bien, en este punto hay que tener en cuenta que un valor muy bajo de un coeficiente dado puede obtenerse también por las siguientes causas:

1.   El nivel escogido para cada factor está cercano a un máximo condicional de la respuesta.

2.   La magnitud del cambio  para ese factor  ha sido escogido desproporcionalmente pequeño.

     La primera de esas causas será precisamente el criterio a utilizar en la búsqueda del óptimo en los pasos de aproximación iniciales, como se verá más adelante y la segunda muestra una vez más la importancia decisiva que tiene realizar desde el inicio una adecuada selección de la magnitud del cambio a efectuar en cada factor, o sea sus niveles.   

     Como ejemplo de esta etapa del Diseño de los Experimentos se tiene el trabajo realizado por Benítez y colaboradores (1995) para la selección de los factores más importantes en el proceso de obtención de hecogenina a partir de la fermentación del jugo de henequén. En ese trabajo se partió de siete factores, y se decidió estudiarlos en los niveles  que se muestran en la Tabla 5.3.

  Se aplicó un Diseño Saturado, con dos réplicas en el centro, con la ayuda del Statgraphics Versión 6.1 y se obtuvo que las variables significativas son la temperatura y la agitación, por lo cual se pudo pasar a la etapa posterior de optimización inicial y final.

      En este caso particular, no fue necesario realizar la etapa de Optimización inicial debido a que los niveles escogidos para el tamizado estaban precisamente en la zona del óptimo, por lo cual se pudo pasar directamente a un Diseño Compuesto Central, para la realización del cual se conservaron los resultados obtenidos en el Diseño Saturado utilizado en el Tamizado (Benítez et al., 1995). (Los resultados obtenidos se verán en la Clase Práctica).

 

Tabla 5.3 Niveles del Diseño de Exerimentos.

Factor

Límite inferior

Límite superior

Unidades

Tipo de levadura

natural

panadera

-

Inóculo

0.01

0.015

% Vol.

pH

4

6

-

Temperatura

28

40

C

Aire

0.1

1.58

v.v.m.

Tiempo

24

48

h

Agitación

5

930

rpm

 

 

 

 

.Fase de optimización inicial.

     Antes de llegar a esta etapa, el número de factores debe de haberse reducido a un máximo de tres o cuatro y preferentemente no más de tres. En ésta  los Diseños Experimentales se construyen alrededor de los Diseños Factoriales Completos o Fraccionarios con un punto central único, aunque en muchos casos los propios diseños empleados en el Tamizado de Variables pueden ser también empleados para la etapa de optimización gruesa y  pueden ser reanalizados en términos de los factores sobrevivientes al tamizado.

       En esta etapa se utiliza el método del camino del ascenso más rápido, para lograr un acercamiento hacia el óptimo, mediante un modelo de primer orden, hasta alcanzar las cercanías de dicho óptimo y pasar entonces a la etapa de Optimización Final (Cox y Cochran, 1965;López,. R., 1988).

    Como ejemplo se tiene la investigación realizada a nivel de laboratorio de una hidrólisis enzimática, en la cual se parte de un tamizado inicial de variables que arroja tres factores fundamentales, con los cuales se pasa a la escala de banco para realizar la Optimización Inicial aplicando los Diseños Factoriales Completos 2n. En este caso se aplicaron tres diseños 23, hasta que el último se amplió a un Diseño Compuesto Central, por presentar curvatura. No obstante, en esa región no se encontraba tampoco el óptimo, por lo cual debían continuarse los experimentos.

    (Los resultados obtenidos se verán en la clase práctica)

.Fase de Optimización final.

     Esta fase requiere un modelo cuadrático completo para predecir  con precisión el punto de óptima respuesta:

 (5.14)

donde m =  n-1 y todos los términos del modelo deben ser estimados.

     El tipo de diseño empleado en esta etapa es el Diseño Compuesto Central, el cual es básicamente un Factorial 2n aumentado con los puntos centrales y los puntos estrella.  Además se pueden emplear también los diseños 3n y el diseño tipo Box y Behnken (Murphy, 1977), estando estas tres opciones disponibles en el paquete de programas Statgraphics Versión 6.1.

     Para el análisis final del óptimo, resulta útil obtener el gráfico de la Superficie Respuesta, así como el Gráfico de los Contornos,  los  cuáles se obtienen también disponibles en el STATGRAPHIC. Como ejemplo se tiene el proceso de optimización final realizado durante una investigación para optimizar el medio de cultivo de Schizophyllyum commune para la obtención de la enzima xilanasa (Haldricht et al., 1993).

      En ese caso también se partió del tamizado inicial y del proceso de optimización inicial, para finalmente alcanzar la región estacionaria donde estaba el óptimo. A manera de ejemplo se muestra la forma de la superficie rspuesta obtenida, para dos de los factores principales. El resto de los resultados se apreciarán durante la Clase Práctica correspondiente.

 

 

5.4  Utilización del paquete de programas estadistico Statgraphics para el Diseño Estadístico de Experimentos.

     En la versión 6.1 para DOS de este software, se cuenta con la opción Experimental Design, dentro del Menú Quality. A su vez, Experimental Design presenta tres opciones: Screening Design, Surfase Response Design y Surface Response Plotting. Con la opción Screening Design,  se realizan los Diseños Estadísticos de Experimentos para las fases de Tamizado de Variables y de Optimización Gruesa, mientras que con la opción Surface  Response Design, se realizan los Diseños correspondiente a la fase de Optimización final. La opción Surface Response Plotting, es simplemente una facilidad gráfica para obtener tanto las superficies respuesta como el gráfico  de los contornos para las funciones correspondientes, que se puede utilizar con independencia del Diseño de Experimentos, ya que dentro de las opciones tanto de Screening Design como de Surface Response Design, se cuenta también con las facilidades para ese tipo de gráficos, sin necesidad de ir a la opción Surface Response Plotting.

     El uso de este sofware se ilustrará con los ejemplos en el Laboratorio y clase práctica correspondiente, para lo cual se emplearán las aulas especializadas de computación.

 

MATERIAL COMPLEMENTARIO

 1- Programa SIMULFERM para simular la realización de los experimentos, de forma tal de poder aplicar las técnicas estudiadas en casos diferentes a los ejemplos mostrados.

2- Ejemplo de aplicación del BioPro Designer.


CAPITULO 6

 

PLANTAS PILOTO

 

6.1 Introducción.

 

     En los procesos de la industria química se han empleado las plantas de escala pequeña con dos propósitos principales: como precursores de una planta de producción a escala completa, que no ha sido aún construída, y para estudiar el comportamiento de una planta de producción existente, de la cual la unidad pequeña es una reproducción.

     En el primer caso se acostumbra denominar las plantas pequeñas como plantas piloto y en el segundo caso se les denomina plantas modelo, aunque en realidad esta distinción no tiene mucha importancia práctica.  En muchas ocasiones una planta piloto se mantiene funcionando aún después que se ha construído y puesto en marcha la unidad comercial de la que fue precursora y pasa entonces esa planta pequeña a trabajar como planta modelo. A su vez, muchas plantas modelo se utilizan para desarrollar variantes del proceso que modelan y llegan por tanto a ser precursoras de una nueva planta o de la remodelación profunda de la planta industrial existente.

     Además, desde el punto de vista de la Teoría de los Modelos y el escalado, no es importante si el prototipo existe antes o después que el modelo y los procesos de scale-up y scale-down no son más que partes de un único proceso de escalado (Capítulo 1). Por todo lo antes expuesto y considerando la mayor complejidad de la tarea de desarrolar (o utilizar) una planta a escala pequeña como planta piloto, este capítulo tratará en especial de ese tipo de plantas, con lo cual se cubren también los objetivos requeridos para el desarrollo y utilización de las plantas modelo.

 

5.2 Definición de planta piloto.

 

     Desde el inicio de  la  Ingeniería  Química  como  profesión,  fue aceptado el principio de la obligatoriedad de  la  realización  de experimentos a una escala  mayor  que  la  del  laboratorio,  pero inferior a la industrial (20) y las instalaciones en  las  que  se realizaban las experiencias se denominaron primero semi-plantas  y después plantas piloto (28).

    En  los  primeros  tiempos  las  semi-plantas  o  plantas   piloto constituían   versiones   miniaturizadas   de   las  instalaciones industriales y los métodos de diseño con que se contaban,  basados en conocimientos muy limitados de los procesos de transferencia de calor y masa, impedían realizar un salto de  escala  apreciable  y el desarrollo se tenía que hacer en una serie de etapas sucesivas, comenzando con los experimentos de laboratorio y siguiendo con  un trabajo intenso en la escala de banco y varias etapas  de  plantas piloto, lo que constituía un proceso lento y caro (22).

    Ya en la década del 50 se comenzó a  hablar  de  dos  definiciones diferentes de plantas piloto: para algunos,  un  modelo  a  escala pequeña de una  planta  a  escala  comercial,  completo  hasta  el enésimo grado; para otros,  un conjunto de partes normalizadas  de equipos que se interconectan para conformar una  unidad  integrada capaz  de  producir  el  efecto  final   deseado,   simulando   el rendimiento de la unidad de producción prevista (21).

     La segunda de las definiciones anticipa ya el concepto moderno  de planta piloto multipropósito, mientras que la primera nmantiene el concepto original de planta piloto como unidad que debe remedar la totalidad de la planta a  escala  complerta,  de  acuerdo  con  la concepción de  miniaturización,  que  la  práctica  ha  demostrado innecesaria (4, 20, 22, 28, 33).

     Desde el punto de vista actual, una planta piloto es una planta de tamaño  intermedio,  entre  el  laboratorio  (y  el  banco)  y  la industria, que modela el proceso de interés, construída y  operada de  forma  que  permita  probar  ese  modelo  en  una  forma   más conveniento  y  menos  cara,  minimizando  los  efectos   de   las operaciones inesperadas. Ese tipo de planta debe ser  considerada, usando la  terminología  actual  de  escalado  (Capitulo  1),  una versión de escala descendente  (scale-down)  de  la planta  final esperada o al menos de sus porciones críticas  y  no  una  versión escalada ascendentemente  (scale-up) a partir de  los  equipos  de laboratorio (2, 12, 20, 29).

     En esta definición no es necesario precisar el  factor  de  escala requerido, ya que esa decisión debe tomarse en la etapa de diseño, pero el requisito es que tiene que ser seleccionado de  tal  forma que los resultados  obtenidos  en  la  planta  piloto  puedan  ser realmente extrapolados a la escala industrial, o sea que la planta piloto sea escalable. Incluso puede darse el caso  de  que  en  un proceso sea necesario más de un paso entre  el  laboratorio  y  la planta industrial,  lo  que  está  en  dependencia  del  nivel  de conocimientos que se tenga sobre el proceso,  sus  características específicas y el tamaño que debe tener la unidad  industrial  (22, 28, 36, 37, 39).

    Las partes del proceso a escala industrial, que deben formar parte de la planta piloto, también es otro elemento a ser decidido en la etapa de diseño. Esa decisión debe variar caso a caso y puede  ir, desde el enfoque más conservador de modelar el  sistema  completo, hasta la decisión de eliminar totalmente la escala piloto, pasando directamente a la escala industrial.

    Existe también la posibilidad de complementar el  trabajo  de  las plantas piloto con el empleo de modelos a gran  escala  (mockups), por lo cual  es  más  adecuado  aplicar  el  concepto  general  de etapa, nivel o escala piloto y englobar en el mismo  el  uso  de las plantas piloto. en sus diversas variantes  y  los mockups (36, 37).

    En su conjunto,  la  etapa  piloto  se  opera  con  los  objetivos siguientes (Capítulo 1):

 

 1- Probar la factibilidad y confiabilidad de un proceso

 2- Obtener información de diseño

 3- Obtener cantidades de producto con fines de ensayo y promoción

 4- Corroborar las teorías sobre los mecanismos de los procesos

 5- Obtener conocimiento y dominio (know-how) del proceso

 6- Ganar experiencia en la operación

 7- Obtener datos sobre tatamiento de residuales  y  preservación demedio ambiente

 8- Probar materiales de construcción

 9- Probar métodos de análisis de procesos y control de calidad.

10- Entrenar el personal

11- Evaluar nuevos equipos y sistemas tecnológicos

 

5.3 Costo de las plantas piloto.

     Como regla las  plantas piloto cuestan caro. Para estimar su costo se pueden utilizar  factores  de  escalado  descendente  para  los costos de los equipos,  aunque  esto  no  resulta  normalmente  un método satisfactorio, puesto que  no  se  logran,  ni  se  desean, equivalencias exactas de diseño entre los equipos  industriales  y los de escala piloto (24).

     Analizando la experiencia acumulada se puede apreciar que el costo de las plantas piloto  depende  de  la  escala  de  operación,  la cantidad de instrumentación, el tipo  de  planta  y  muchos  otros factores y que si aún el costo fuese sólo  un  10%  de  la  planta completa, el mismo representa una cantidad considerable de dinero, en el rango de millones de dólares (28).

     A manera de ejemplo se tienen los costos de algunas plantas piloto construídas por la firma especializada Xytel Corporation, de   los Estados Unidos (40), los que oscilan desde 4 000 000 USD para  una planta de desarrollo de procesos de hidrogenación agro-química  de alta presión, hasta una pequeña planta piloto para   evaluación de procesos de catálisis  heterogénea  con  sistema  de  control  por microcomputadora, a un costo de 180 000 USD.

     Sin embargo estas cifras no son desproporcionadas, si se considera lo que puede ocurrir si una instalación industrial se construye  a partir de la suposición de que el proceso desarrollado a nivel  de laboratorio va a funcionar de acuerdo a lo esperado en  la  escala industrial y presenta en la práctica serios problemas  durante  la puesta en marcha, los que además de prolongar considerablemte  ese periodo, provocan  que  se  tenga  que  paralizar  la  misma  para rediseñar la planta, cambiar equipos y realizar por ende una  gran cantidad de gastos. Esa situación provoca de seguro  un  nivel  de gastos muy superior al 10% del valor total de la planta (28).

    La pérdida de producto, la irreparable pérdida de tiempo en  poner un producto en el mercado y el disgusto de la alta dirección,  son elementos más que  suficientes  para  justificar  los  gastos  que aseguren una puesta en línea de la planta, rápida y correcta y  si bien el diseño y la operación correcta de  una  planta  piloto  no puede garantizar al 100  %  por  si  sola  una  puesta  en  marcha adecuada, con ello se gana  un  gran  trecho  en  el  sentido  de incrementar la probabilidad de que esto ocurra.

     No obstante, el costo de las plantas  piloto  resulta  en  general alto y es por ello de suma importancia  analizar  de  qué  depende fundamentalmente ese costo, de manera tal que se puedan tomar  las medidas correspondientes para reducirlo al mínimo imprescindible.

    Para tener una idea más  concreta  de  las  causas  que  hacen  la construcción y  operación  de  una  planta  piloto  tan  cara,  se analizarán a continuación los principales elementos  que  influyen en dicho costo:

5.3.1 Equipamiento.

     Los equipos pequeños, capaces de ser   escalados  por  métodos  de ingeniería establecidos,  pueden ser muy caros (14).  A  pesar  de que tales equipos no tienen  que  ser  una  versión  miniaturizada exacta, deben  de  ser  capaces  de  modelar  aquellos  parámetros críticos para el proceso, tales como el tiempo de  residencia,  la relación de área de  intercambio  de  calor  con  el  volumen,  la equivalencia  en  el contacto   líquido-vapor,   la   equivalencia hidráulica, la relación del diámetro  del  impelente  con  el  del recipiente, la capacidad de bombeo por unidad de volumen  y  otras relaciones similares, incluyendo en algunos  casos   equivalencias de grupos adimensionales, lo que encarece considerablemente  estos equipos (28).

 

5.3.2 Instrumentación.

     En  los  inicios  del  empleo  de  las  plantas  piloto  sólo   se necesitaba un termopar en el líquido, otro en el espacio de vapor, un manómetro en el reactor  y  un  amperímetro  en  el  motor  del agitador. Entre otras cosas, determinaba el hecho  de  que  no  se disponía de tiempo para graficar más puntos  o  correlacionar  más variables.

     En  la  actualidad,  sin  embargo,  las  capacidades  modernas  de procesamiento de  datos  hacen  posible  recolectar,  registrar  y correlacionar cientos de datos en la unidad de tiempo; emplear esa información para controlar el proceso y hacer que  la  misma  esté disponible para el  diseño  de  la  planta.   Por  esta  causa  la tendencia actual es medir prácticamente todo, de manera  de  estar seguros que no se olvida ningún evento crítico.

     Todo eso tiende a ser caro y frecuentemente llega a ser  tan  caro como su contraparte a escala completa. Los sensores,  indicadores, transmisores, controles,  recolectores  de  datos  y  computadoras cuestan prácticamente lo mismo si se emplean en una pequeña unidad piloto o en una unidad de producción, aunque se  producen  algunos ahorros debido al número de unidades empleadas, la longitud de las corridas de transmisión, el empleo  de  instalaciones  temporales, etc. (28, 41).

 

5.3.3 Personal de dirección y operación (staff).

     La selección del personal para dirigir y operar una planta  piloto debe ser muy cuidadosa, en consideración a la naturaleza  especial de este trabajo, que trata  siempre  con  procesos  de  producción novedosos, de los cuales no hay experiencia previa. Al  frente  de la planta debe estar un jefe de proyecto, el  cual  debe  ser  una persona a la cual le sea familiar  tanto el proceso  químico  como el equipamiento, capaz de supervisar la operación de la  planta en su conjunto (Figura 5.1).

    Al equipo de dirección de la planta debe incorporarse  un  químico que haya sido miembro del equipo de investigación  de  laboratorio que trabajó en esa etapa, de forma tal  que  el  mismo  pueda  dar asistencia  diaria  en  cualquier  problema  relacionado  con   su especialidad,  sobre  todo  si  la  química  del  proceso  es  muy compleja, si hay procedimientos especiales de operación y  si  hay involucrados riesgos no comunes. Esta persona deberá ser un puente entre el colectivo que realizó el trabajo de laboratorio y el  que se encarga del trabajo a escala piloto.

    Para la supervisión directa del proceso debe haber  un  cuadro  de ingenieros de proceso,  cuyo  número  estará  en  dependencia  del número de turnos que trabaje la planta en un día. Por ejemplo,  si la misma trabajará solamente de 6 a 10 horas por día y si es  sólo de moderada complejidad, bastará con un solo ingeniero, pero si es una planta continua  y que consiste en una cadena de  equipos,  se necesitarán entre 6 y 9 ingenieros.

    La  tarea  de  esos  ingenieros  es  asegurar  que:  se  controlen adecuadamente   las   corrientes   de   alimentación;    funcionen correctamente  las  bombas  y  otros   equipos   auxiliares;   las temperaturas,  presiones, niveles, amperajes y flujos estén en los valores fijados apropiados  y  que  en  general,  cada  cosa  esté funcionando como fué diseñada. Entre  sus  funciones  puede  estar también la ejecución de operaciones manuales de los equipos  y  de hecho los ingenieros de proceso pueden hacer la mayor parte de  la operación de la planta piloto, en dependencia  de  la  magnitud  y complejidad de la misma.

     No obstante lo anterior, casi  siempre  es  necesario  contar  con personal  de  operación,  los  cuales  debe  ser   preferentemente técnicos calificados y su número estará en dependencia también del tipo de proceso y  la  complejidad  del  equipamiento.  Para  esta definición es de gran ayuda poder  contar  con  una  planificación previa de los experimentos, en la  cual  se  hayan  analizado  con cuidado las diferentes tareas que hay que cumplir, ya que  así  se está en condiciones de definir cuántos operadores  son  necesarios para que la planta funcione correctamente y de forma segura.

    En la  práctica  es  preferible  estimar  en  exceso  el  personal necesario para la puesta en  marcha  de  la  planta  piloto  y  si después se comprueba  que  no  todos  son  necesarios,  pasar  los excedentes a otras labores, que correr el riesgo de no contar  con rapidez con el personal necesario ante cualquier contingencia.

   Finalmente es aconsejable, contar con por lo menos un especialista de mantenimiento asignado a la planta e incluso más de uno  si  se trata de una planta compleja que funciona las 24 horas del día. El hecho de que la planta piloto es una configuración experimental de equipos en la cual, sin dudas,  será  necesario  realizar  cambios durante el desarrollo de los trabajos,  sobre  todo  en  la  etapa inicial del proyecto, hace mayor la necesidad  de  contar  con  un personal de mantenimiento propio.

     El  resultado  de  esta  concentración   de   personal   altamente calificado es un elevado costo de operación, pero esto  obviamente es imprescindible si se quiere garantizar a  la  planta  la  mayor posibilidad de éxito. Escatimar en la fuerza de  trabajo,  ya  sea por su elevado costo o por una supuesta falta  de  disponibilidad, tendrá el mismo efecto  que  hacerlo  con  el  equipamiento  o  la materia prima: una marcada reducción de la probabilidad de  lograr los resultados  esperados  con  el  funcionamiento  de  la  planta piloto.

     De hecho, si el programa de experimentos previsto para  el  tiempo de funcionamiento de la planta  no  llegara  a  cumplirse  por  no haberse operado correctamente la misma y fuese necesario por  ello realizar trabajos de pilotaje adicionales, el  incremento  de  los costos será mucho mayor que  lo  que  pueda  significar  el  haber contado inicialmente con una mayor  cantidad  y  calificación  del personal de dirección y operación de la planta.

 

5.3.4 Materias primas, productos, residuales y desperdicios.

     El costo de las  materias  primas  y  de  la  eliminación  de  los subproductos   indeseables  y  de las  producciones    fuera    de especificaciones puede llegar a ser considerable. Aún una  pequeña planta piloto discontinua puede consumir  materias  primas  a  una velocidad  sorprendente,  si  se  compara  con  los  trabajos   de laboratorio y de banco y esto es mucho más intenso en el  caso  de las unidades mayores y de operación continua.

     Además, si se necesita  obtener  una  cantidad  predeterminada  de producto dentro de especificaciones para  realizar  posteriormente pruebas de campo, evaluación de mercado o  de  aceptación  por  el cliente, se deben considerar grandes factores de seguridad de, por ejemplo 10 veces el índice previsto, para compensar  las  corridas que se pierden por diferentes causas, los rendimientos menores que los esperados y las producciones fuera de  especificaciones.  Esto puede significar grandes cantidades de materias primas  que  deben ser almacenadas antes del inicio de las corridas piloto y  grandes cantidades de desperdicios que deben ser eliminadas en  una  forma segura y de acuerdo a las disposiciones legales.

     En los casos en que la operación inicial de una planta  piloto  se realice dentro de las instalaciones de un laboratorio o centro  de

investigación, la necesidad de  tener  que  almacenar  decenas  de recipientes de 200 litros donde con  anterioridad  era  suficiente contar  con  algunas  botellas  de  500  gramos  de  producto   de laboratorio, crea serios problemas y hace necesario una  cuidadosa coordinación entre el jefe de la planta piloto y el  encargado  de garantizar los suministros, con  el  fin de lograr la minimización de la necesidad de almacenaje.

     El desarrollo del trabajo puede conducir a resultados  que  pueden ser sorprendentes, como el hecho de que el costo de la disposición de los residuales llegue a exceder el de la materia prima  y  para tratar de  evitar  ese  tipo  de  sorpresas,  resulta  conveniente realizar, antes de la puesta en marcha,  un análisis exhaustivo de las corrientes residuales que se esperan y  de  las  posibilidades existentes para su tratamiento, de forma que se pueda  contar  con los planes necesarios. Se deben emplear para  estos  análisis  los grupos de especialistas en tratamiento de residuales que tenga  la organización que dirige el proyecto e incluso se puede contratar a firmas especializadas en este tipo de  tareas  para  explorar  los costos del tratamiento y disposición final de los residuales,  con la antelación suficiente.

     Además de estos factores  principales,  hay  otros  como  son  las necesidades  de:  espacio  de  almacenaje  adicional,  facilidades auxiliares, equipos de seguridad especializados, grupos  de  apoyo (analistas, ingenieros, personal  de  oficina,  procesamiento  por computadoras,etc.) y contenedores para los productos y residuales, los que contribuyen a elevar considerablemente estos costos.

     Sin embargo, todos estos costos en la planta piloto  muy raramente llegan a ser más  del  10%  del  costo  global  de  la  planta  de producció de escala comercial y son los más seguros contribuyentes al éxito de la planta comercial (28).

 

5.4 Principales tipos existentes.

     Existen dos tipos fundamentales de plantas piloto,  las  llamadas plantas  piloto  multipropósito   y  las  de  tipo  específica   o unipropósito (28). Hay  autores  que  señalan  otro  tipo  más  de planta, las de tipo general (29), aunque realmente  las de tipo general  no  son más que una variante de las multipropósito, por lo  cual  en  este texto  se  considerarán  solamente  los   tipos.multipropósito   y unipropósito.

 

5.4.1. Plantas piloto multipropósito.

     Este tipo se caracteriza por una instalación o  edificio,  con  el nombre genérico de "planta piloto", lleno de  equipos  de  proceso pequeños (tanques, reactores, columnas, intercambiadores de calor, centrífugas,  secadores,  bombas,  etc.)  disponibles  todos  para unirse  en  la  configuración  deseada  para   en   los   trabajos específicos (1, 3, 10,17).

     Esas  facilidades  para  pruebas  son  especialmente  útiles  para operaciones discontinuas y programas de objetivo único. Como regla general los tamaños de los reactores están en el rango desde 20  a 2000 litros, las columnas entre 100 y 300 mm  de  diámetro  y  los materiales de construcción son principalmente, acero inoxidable  y acero recubierto con vidrio.  En  ocasiones  se  instalan  también unidades de destilación totalmente de  vidrio  y  se  cuentan  con equipos especializados como tubos de intercambiadores de calor  de tántalo,  reactores  recubiertos  con  titanio   y   equipos   con aleaciones  especiales,   aunque   generalmente   este   tipo   de equipamiento han quedado de plantas pilotos anteriores.

     Las plantas mayores de este tipo se hallan  en  Europa,  para  las cuales se han construído grandes edificios con todas  las  facilidades auxiliares disponibles en su conjunto  y  están provistas  de  filas  de reactores, de diferente tamaño, normalmente de acero inoxidable  o acero  recubierto  con  vidrio,  con  conjuntos   de   distilación individuales,  tanques  de  alimentación  y   recepción,   bombas, instrumentación, aparatos de separación, secadores de diverso tipo y los medios necesarios para interconectar prácticamente cualquier

cosa.

     Ese tipo de plantas resulta muy cara  en  su  concepción  inicial, pero  después  de  construída,  cubre  prácticamente   todas   las necesidades posibles  de  los  ingenieros  de  plantas  piloto  y, cuando es necesario realizar  una  corrida  de  planta  piloto  en específico, los gastos  en  equipos   son   prácticamente   nulos, limitándose a alguna reconstrucción de tuberías.

     El uso de este tipo de plantas lleva a la  necesidad  de  que  los equipos cumplan diferentes tareas en diferentes proyectos  y  para ello hay que tener en cuenta dos puntos importantes:

 1- Hay que asegurarse que  cada  configuración  tenga  todos  los  dispositivos  de  seguridad  necesarios  para  cada   reacción específica. Por ejemplo: ¿Están los discos de ruptura o válvulas de seguridad ajustadas para que accionen a la presión requerida y son del  diámetro     correcto? ¿Existen restricciones en la línea  de venteo  o  es ésta demasiado larga? ¿Puede suministrar el condensador de la columna, la  carga  de enfriamiento esperada?  ¿Se cuenta con sistemas secundarios de  seguridad  tales  como     sistemas de drenaje total  rápido  o  de  enfriamiento  súbito  (quench)? ¿Puede este equipo operarse de forma segura con  independencia de cómo se desarrolle la reacción química?

 2-  Hay  que  estar   seguro   de   que   la   instalación   esté suficientemente instrumentada para que pueda dar los datos de diseño necesarios. Normalmente las instalaciones permanentes tinen los  sensores  para indicar, registrar o  controlar  la  temperatura  de  la chaqueta de los reactores (mediante vapor o flujo de un medio de  enfriamiento  y  calentamiento),  temperaturas  internas, presión interna, caída de presión a  través  de  la  columna, temperatura en el tope de la columna y temperatura de  salida del condensador y ocasionalmente se mide también la  potencia del  agitador.  Cuando  se  tiene  dsponible  instrumentación      adicional es porque quedó instalado de un trabajo anterior de la instalación.Cuando se analice lo relacionado con la  instrumentación  que      se requiere se  debe  tener  en  cuenta  los  requisitos  con      relación a la  velocidad,  sensibilidad  y  precisión  de  la respuesta de los instrumentos;  localización  de  los  puntos sensores;  selección  entre  indicación   local   o   remota;  velocidad de búsqueda y análisis  de  la  información  y  las funciones de control que se requieren.

 

5.4.2. Plantas Piloto específicas o unipropósisto.

     En una planta piloto específica o  unipropósito,  los  equipos se instalan y se interconectan con tuberías para realizar el  trabajo específico requerido por el proyecto, de manera muy similar a como estaría montada la planta a escala comercial.

     Un ejemplo de planta piloto específica puede ser  una  instalación experimental para probar el proceso de  obtención  de   un   nuevo polímero y a la vez producir cantidades apreciables de dicho producto (5, 13, 32). Esta planta debe consistir  en  un  reactor  diseñado especialmente para producir el monómero, un sistema de reciclo  de productos intermedios, una sección de recuperación  de  solventes, una cadena de  purificación,  la  sección  de  polimerización,  el secador, el equipo de reducción de tamaño y los dispositivos  para la manipulación de los materiales y su embalaje.

     En ese caso se  construye  una  versión  muy  especial  a  pequeña escala, de la planta grande, o sea un verdadero  modelo,  lo  cual resulta obviamente más caro que  unir  diferentes  piezas  de  una planta multipropósito. Sin embargo, este modo  de  proceder  tiene algunas ventajas reales, como son:

 1- El escalado ascendente (scale-up) será más directo,  debido  a  la semejanza del equipamiento utilizado.

 2- El entrenamiento de los ingenieros de plantas  y  supervisores será más realista y útil.

 3- La  planta  piloto   quedará  disponible  para   más   trabajo experimental  cuando  la  planta  a  escala  total  entre   en funcionamiento,  lo  que  permite  su  empleo  para   resolver  problemas   específicos   del   proceso,   incluso   empleando  corrientes reales de la planta.

4- La  unidad  específica  puede  ser  montada  sobre  esquíes  y transportada hasta el  lugar donde se  instalará  la  planta definitiva para entrenamiento del personal y para la  solución de problemas.

 5- El personal de dirección puede  ser  más  comprensivo  con  el costo y necesidad de la planta piloto si puede  visualizar  la  relación física entre la planta piloto y la planta grande.

 

5.5 Diseño de plantas piloto.

    

5.5.1 Bases para el diseño.

     La seguridad de la operación es la consideración más importante en relación con el diseño de una planta piloto, mientras que la segunda condición más importante es la calidad de los datos que son generados por la planta (Xytel, 1994)-. No obstante, de forma general se pueden considerar que las  principales bases para el diseño, o sea las que definen cómo y porqué se diseñan las plantas piloto del modo en que se hacen (11. 25, 28, 29), son las siguientes:

 

La planta piloto debe brindar los datos esperados.

       Para este objetivo es muy importante que:

1.   La planta piloto se diseñe de forma  tal que permita   asegurar una operación sin contratiempos y que, si eso no se  alcanza de inicio,  sea  factible  realizar  modificaciones a los  equipos y a  las  tuberías  para  resolver  los  problemas  de   índole puramente operacional.

2.   Los  datos  requeridos  se  seleccionen  adecuadamente y se instrumente la planta piloto de manera que pueda generar dichos  datos. Para poder tomar informaciones  útiles,  se  debe  haber  decidido  previamente  la  frecuencia  de  las  mediciones,  la precisión aceptable, los requerimientos  de  transmision  y  la reducción y correlación de los datos. Para los parámetros críticos puede  ser  necesario   considerar una instrumentación redundante (sensores duplicados, mediciones locales además de indicadores remotos o registradores, etc.)  y no  deben  olvidarse  los  datos  necesarios  para  calcular  o chequear la cinética, los mecanismos de reacción y los cálculos de rendimiento.

3.   Se  hagan  las  consideraciones  necesarias  para  asegurar  la escalabiliad de los resultados  de  manera  de  saber  si,  por  ejemplo,  el  reactor  puede  ser  escalado  por  su   relación longitud/diámetro, por el tiempo de residencia, por la potencia  de agitación o por la relación  de  área  de  transferencia  de calor/volumen y si los regímenes  de  flujo  serán  iguales  en ambas escalas.

 

 La planta piloto debe producir cantidades de muestra de producto con la calidad adecuada y con los requerimientos previstos.

       Los productos obtenidos en la planta piloto se pueden usar en  una gran cantidad de vías: para  chequear  la  pureza  obtenida;  para suministrar muestras para clientes potenciales;  para  suministrar muestras de campo  para  pruebas  a  gran  escala,  para  realizar estudios toxicológicos y ambientales, etc. Incluso en ocasiones el producto de una planta piloto se emplea como alimentación de  otra planta piloto, en una operación diferente.

       La importancia de que se  pueda  alcanzar  la  producción  con  la calidad requerida y con los redimientos esperados se comprueba con el hecho de que, en la mayoría de los casos, las  proyecciones  de costo se  realizan  a  partir  de  los  estimados  de  rendimiento realizados en el laboratorio y todo el proyecto puede ser abortado si en las corridas de la planta piloto no se obtienen rendimientos que igualen o superen a los previstos en el laboratorio.

        Es por ello imperativo  que  los  rendimientos  de  las  distintas etapas y la eficiencia en la utilización de las materias primas se midan con precisión y exactitud y para ese  objetivo  se  requiere que la planta piloto esté instrumentada  adecuadamente  y  permita obtener datos  confiables  de  los  balances  de  materiales.  Los requerimientos en este sentido van desde el caso más simple en  el cual es suficiente contar con básculas exactas para  las  materias primas y los productos, hasta los casos en los cuales los balances de materiales no brindan la información adecuada a  menos  que  se empleen flujómetros altamente sensitivos acoplados con equipos  de análisis químico en línea (30).

       Finalmente, lo más importante es que los valores  de  calidad  del producto y rendimiento  se  obtengan  de  un  proceso  que  simule realmente al proceso final, de escala industrial.

 

-La operación de la planta se debe   enfocar  en  los  equipos  de proceso críticos para el futuro proceso a escala industrial  y no debe verse afectada por la lucha contra problemas  específicos de  la escala pequeña que no se tendrán en la escala industrial.

       Los problemas típicos de la escala pequeña, que deben ser evitados en la etapa de diseño de la planta piloto, son los siguientes:

 

1.   Obstrucciones de líneas que ocurren cuando se emplean tuberías y   conecciones muy pequeñas.

2.   Congelamiento  de  líneas  debido  a  las  dificultades  o  a la imposibilidad de aislar o proteger con trazadoras  tuberías  muy   pequeñas.

3.   Dificultades  en  la  transportación   a   escala   pequeña   de   materiales, principalmente en el caso de los sólidos. Dificultades con el escalado descendente de la instrumentación.

 

       El secreto está en saber reconocer estas fuentes  de  problemas  y evitar caer en ellas, aunque en ocasiones no es posible evitar que ocurran y en  ese  caso  la  solución  es  rediseñar  y  construir nuevamente la  sección  que  confronte  este  tipo  de  problemas. Para reducir el riesgo de caer en esta situación, debe tenerse  un cuidado especial con los siguiente aditamentos y equipos:

1.   Las válvulas de aguja  son  fuente  perpetua  de  problemas  en  sistemas en los que se manipulen sólidos o  los  mismos  puedan aparecer durante la reacción.  Hay  que  tener  en  cuenta  que aunque las mismas garantizan un trabajo muy preciso en sistemas limpios, tienen un área de paso muy  pequeña  y  es  preferible seleccionar válvulas de bola de gran  porte,  a  pesar  de  que puedan ser sobredimensionadas con respecto a la  tubería  a  la

2.   que van a estar conectadas.

3.   Los   accesorios   de   tuberías   (fittings)   pueden   causar taponeamientos y deben ser evitados en los sistemas que manejan sólidos o se  deben  colocar  de  forma  tal  que  sea  posible limpiarlos con facilidad.

4.   Algunos medidores de  flujo, como  los  rotámetros  y  los  del tipo turbina, son magníficos para  la  escala  industrial  pero  están llenos de problemas en los sistemas pequeños y sucios. La lectura obtenida de los  mismos  será  cuestionable  si  ocurre obstrucción parcial de  los  orificios  o  si  las  propelas  o flotadores se cubren de depósitos.

5.   Los tubos sumergidos empleados para  toma  de  muestras  tienen tendencia a obstruirse  y  aunque  la  colocación  de  pequeños coladores en su parte inferior puede resolver este problema, lo mejor es emplear siempre las tomas de muestra de tipo  positivo  y emplear siempre que sea  posible  tuberías  colocadas  en  el fondo de los recipientes,  de  manera  tal  que  la  carga  del líquido favorezca su salida.

6.   Los dispositivos para la alimentación de sólidos en escala  muy pequeña tienden a presentar problemas con la  exactitud  de  la medición si los sólidos  están  húmedos,  son  higroscópicos  o tienen tendencia a compactarse o aglomerarse. Es  casi  siempre mejor alimentar soluciones en lugar de sólidos o lodos, por  lo cual debe tratarse de disolver la  materia  prima  en  cuestión para después alimentarla al reactor con una bomba  de  medición   convencional.

 

-El panel de instrumentación debe estar separado del sistema de la planta piloto.

       De  ser posible, con la única exepción de unos  pocos  indicadores locales, los instrumentos deben ser montados en un panel  separado del sistema de la planta piloto y preferentemente en forma  de  un panel semi-gráfico. Esa decisión  inicial  se  justifica  por  las diversas ventajas que tiene:

     Hay menos peligro y dificultad para el operador que  tiene  que recolectar los datos, ya que no tiene que  tener  contacto  con superficies calientes ni pasar trabajo  para  acercarse  a  los instrumentos de medición.

     Se pueden leer todos los instrumentos por más de una persona  a la vez, de forma confortable y eso asegura que los mismos  sean revisados más a menudo.

     Mientras una persona ajusta alguna parte de la  planta  piloto, otra puede  observar  los  instrumentos  para  chequear  si  la respuesta es correcta,  lo  que  es  especialmente  conveniente cuando la planta piloto  está  en  control  manual  y  se  debe ajustar un flujo crítico o cualquier otra variable importante.

     Cuando se requiere instrumentación redundante, los  indicadores  locales se pueden dejar en la propia instalación piloto  y  los remotos se colocan en el panel.

     Se   pueden  mantener  mejor  los  instrumentaos  cuando  están separados  del  sistema  de  reacción.  Esto  permite   también realizar la reparación de algunos instrumentos  sin  tener  que paralizar la instalación piloto.

     Si  el  proceso  a  pilotear  es  peligroso,  es  especialmente importante contar con un panel de instrumentación  remoto,  que permita crear condiciones  más  seguras  para  los  operadores.  Además, en la mayoría de los  casos es más  barato  unir  todos los instrumentos en una cabina única protegida con  gas  inerte  que mantener cada uno de ellos en el proceso, en condiciones  a prueba de explosion.

 

-La  planta  piloto  debe  ser  capaz   de   trabajar   de   forma ininterrumpida durante el periodo de tiempo previsto.

 

       Esto significa que las averías mecánicas deben ser  minimizadas  y para ello debe realizarse  un  trabajo  previo  considerable  para identificar tantas situaciones problemáticas potenciales como  sea posible. Cuanto más preparado se esté anticipadamente, en  mejores condiciones  se  estará  para  resolver  los  problermas  que   se presenten, a tiempo y de una manera ordenada.

       Se debe estar preparado para responder preguntas como éstas:

 

    -¿Qué hacer si la reacción  química  no  se  desarrolla  como  se espera?

    -¿Qué ocurre si no se puede  subir (o  bajar)  a  la  temperatura requerida en el tiempo previsto?

    -¿Qué pasa si no se pueden alimentar las materias  primas  en  el  período de tiempo requerido?

    -¿Qué ocurre si no se puede extraer el producto?

 

    Este tipo  de  preguntas  relacionadas  con  el  proceso  son  tan importantes  como  las  preguntas  comunes  de  los  manuales   de operación acerca de lo  que  se  debe  hacer  ante  una  falla  de energía eléctrica, agua de enfriamiento, aire de instrumentación o vapor. El estar preparados con antelación para responderlas y  por lo tanto para actuar en consecuencia, es una garantía para  evitar las complicaciones que provocan interrupciones en la operación.

     El estudio detallado de las posibles complicaciones y la forma  de prevenirlas y resolverlas  con  rapidez  cuando  ocurran,  permite confeccionar  un  programa  realista,   tanto   del   proceso   de construcción y puesta en marcha de  la  planta  piloto,  como  del desarrollo de las distintas corridas experimentales previstas.

     En ese programa debe contemplarse el diseño de la instalación,  la compra de los equipos. el calendario de recepción de  los  mismos, la construcción y el montaje, confección del manual de  operación, entrenamiento de los  operadores,  programación  de  las  corridas experimentales, análisis de los datos, paradas para mantenimientos rutinarios e imprevistos,  repetición  de  experimentos  críticos, confección de los informes,  operaciones  de  limpieza,  etc.  Ese programa no debe ser demasiado optimista y considerar los posibles problemas que se pueden presentar.

      El contar con un programa adecuado, aprobado por todos, evita  que se someta la operación de la planta piloto a  presiones  excesivas con relación al tiempo de ejecución de las tareas. Hay  que  tener en cuenta además  que  realizar  una  operación  piloto  de  forma precipitada puede traer como consecuencia que se  pasen  por  alto

detalles importantes, se pierdan datos, se afecte la  calidad  del producto, se pierda tiempo y se llegue  a  afectar  la  moral  del colectivo, además  de  comprometer  incluso  la  seguridad  de  la operación.

 

5.5.2 Factores de escala a considerar.

 

      En la definición de planta piloto  se  excluyó  la  precisión  del factor de escalado, por ser éste un  elemento  a  precisar  en  la etapa de diseño de la misma. El factor de escalado debe satisfacer los requerimientos de datos  de  diseño, los requerimientos  de  preparación  de  las muestras requeridas del producto, las expectativas de la dirección y el buen sentido del ingeniero de proyecto.

      Normalmente los cuatro factores se tienen en cuenta a la  hora  de definir el factor de escala que tendrá la planta,   aunque  uno  o dos de ellos sean más importantes que los demás.  También  hay  un quinto factor mucho más pragmático que puede resultar decisivo  en muchos casos y es el tamaño del equipamiento disponible.

     Lo fundamental el lograr que la planta piloto sea  suficientemente grande para que pueda servir de indicador del costo y  la  calidad del trabajo requerido para la operación comercial del proceso  (4, 33), para que pueda hacer visibles aquellas perturbaciones que  se pueden enmascarar en la escala pequeña  como  son  las  exotermias moderadas, los cambios temporales en la viscosidad y fenómenos  de cambios de fase y también para prevenir problemas de  manipulación de  sólidos  y lodos, especialmente  en  lo  relacionado  con  las tuberías  de  transferencia. A  la  vez,  la   planta   debe   ser razonablemente pequeña de manera de poder minimizar  las  materias primas requeridas y los residuales producidos y, en algunos casos, los inventarios en proceso.

     También las limitaciones físicas  pueden llegar a  determinar  el tamaño de una planta piloto. Por ejemplo, puede ser importante que la operación se realice en un espacio dado,  como  puede  ser  una celda de prueba a alta presión o que se necesite que la planta sea transportable para que pueda ser eventualmente trasladada al lugar de la planta comercial (12, 15).

      Finalmente hay que lograr  que  la  planta  piloto  sea  realmente escalable. No  tiene  sentido  construir  una  planta  piloto  tan pequeña que se puedan tener dudas acerca  de  la  validez  de  los datos obtenidos para el escalado de la planta de  produccion.  Hay que considerar también que muchos de los datos requeridos para  el diseño son obtenibles perfectamente  en  el  banco  y  lo  que  se necesita es comprobarlos en equipos más grandes.      También hay datos que se pueden obtener solamente  en  los  modelos  a  gran  escala (mockups), y por ello no es necesario tenerlos  en  cuenta  en  el diseño de la planta piloto.

     En resumen, y sobre todo si el objetivo  principal  de  la  planta piloto es obtener datos de diseño, la planta debe  construirse  de los equipos escalables más  pequeños posibles,  de  forma  que  se minimice tanto la inversión inicial como los costos  de  operación (7, 26).

 

5.5.3 Seguridad.

 

     Si bien en el laboratorio y en el banco se trabaja con incógnitas, en la planta piloto ocurre lo mismo,  pero  en  una  escala  mucho mayor, lo que incrementa considerablemente los  riesgos.  Peligros potenciales que en el laboratorio y en el banco pueden ser pasados por alto u omitidos, pueden resultar desastrosos  en la  operación a  escala  piloto.  En  estas  operaciones   se   prueban   nuevas tecnologías, se aplican nuevos conocimientos químicos, se  trabaja en áreas nuevas y por tanto se requiere  de  la  mayor  precaución para garantizar una operación segura.

     Independientemente  de  cuan  simple   o   sofisticada   sea   una instalacion piloto, siempre  se  deben  hacer  frente  a  peligros físicos  y  químicos  potenciales  en  una  escala  nunca  probada anteriormente, lo que puede incluir sólidos pirofóricos,  líquidos corrosivos, productos químicos  tóxicos,  reacciones  exotérmicas, mezclas explosivas, etc. (19, 25, 26). Además de esos riesgos, más apreciables y entendibles, puede haber otros riesgos asociados con la  operación  propiamente  dicha:  instrucciones   de   operación insuficientes,   instrucciones   mal   interpretadas,    uso    de equipamiento impropio, zona de trabajo  abarrotada  de  obstáculos diversos. mal organizada y atendida y descuidos en general.

     Por todo esto resulta de vital importancia establecer una adecuada política con relación a la seguridad y desarrollar las  reglas  y regulaciones  necesarias.  También  resulta  decisivo   que   esas políticas  sean desarrolladas y que cada miembro del equipo, desde el jefe del proyecto hasta el operador  o  técnico  de  turno,  se adhiera a las mismas y mantenga una  actitud  orientada  hacia  la seguridad (6, 18, 27, 28).

      Desgraciadamente, a pesar de la existencia de manuales de seguriad voluminosos, ocurren accidentes evitables. Cuando esos  accidentes se investigan, muchas veces se encuentra que sus causas  y  formas de prevenirlos no estaban consideradas en dichos manuales.  Muchos son debidos a  errores  humanos  como  descuidos,  desantenciones, omisiones, falta de comunicación e incluso simple  desconocimiento de lo que puede ocurrir (15).

      Para reducir estos problemas, la seguridad debe tenerse en  cuenta desde el mismo comienzo del proyecto, en la etapa de laboratorio y de banco y debe ser uno de los aportes que los ingenieros hagan en los equipos multidisciplinarios que deben  organizarse  desde  esa temprana etapa (Capitulo l). La revisión cuidadosa de   los  datos obtenidos en esas etapas, principalmente  la  cinética  química  y las características térmicas diversas, tiene un  peso  fundamental en la previsión de los posibles riesgos de la etapa piloto.

      Hay que tener en cuenta que cualquier derrame pequeño  de  líquido de un recipiente de vidrio, provocado por un borboteo del  líquido reaccionante, puede tener consecuencias desastrosas si  ocurre  en un reactor enchaquetado de 20000  L.  Por  consiguiente  se  deben analizar cuidadosamente etapa  por  etapa,  detalle  por  detalle, todas las corridas experimentales realizadas, para estar seguro de poder detectar cualquier situación que pueda generar un peligro en la escala piloto.

     No se puede comenzar un programa de pruebas a escala piloto si  no se ha realizado ese  análisis  exhaustivo  y  la  mejor  vía  para asegurar una transferencia  adecuada  de  la  información  de  las etapas de laboratorio y banco a la etapa piloto,  es  mantener  la participación activa durante todas esas etapas  de  investigación, de al menos uno de los ingenieros que posteriormente trabajarán en la planta piloto. Ese  ingeniero  deberá  asegurar  que  se  pueda obtener el  tipo  de  información  necesaria  para  garantizar  la seguridad y que todo el trabajo de laboratorio se realice desde el punto de vista de la seguridad ingenieril.

      Este procedimiento se complementa con la participación de  uno  de los químicos del equipo de investigación de laboratorio y banco en el grupo de trabajo de la  etapa  piloto,  o  mejor  aún,  con  la aplicación  del  principio  de   Ingenierización   (Capítulo   1), conformando un equipo multidisciplinario que  participe  en  todas las etapas de I-D (laboratorio, banco, piloto,  semi-industrial  e industrial).

      Como resultado de todos esos análisis  previos  y  la  experiencia acumulada se deben confeccionar un conjunto de informaciones sobre factores    de    toxicidad,     inflamabilidad,     explosividad, requerimientos especiales de manipulación, condiciones adversas de reacción (exotermias, formación  de  espumas,  desprendimiento  de vapores, etc.), así como una relación razonablemente  completa  de propiedades  físicas  y  químicas,  todos  los  cuales  se   deben anexar a las instrucciones de operación.

      El trabajo de diseño de la planta piloto debe  comenzar  solamente cuando el equipo de ingenieros de proyecto se sienta seguro de que se han tenido en cuenta y acopiado todos  los  datos  provenientes del trabajo de laboratorio y banco. Todo el trabajo relacionado con la  seguridad  debe  ser  realizado  con la  participación  del  equipo  de  proyecto  en  su conjunto,   aunque   es   un   buen   procedimiento   de   trabajo responsabilizar especialmente a  un  miembro  del  equipo  con  la misión de centralizar todo lo relacionado con este tema.

      Este  especialista  debe  asegurar  que   se   tomen   todas   las consideraciones de seguridad en el  diseño,  como  son:  selección adecuada de las dimensiones de las líneas de venteo y dispositivos de seguridad, reducción al mínimo de los inventarios en proceso de las materias primas o productos peligrosos, adecuada capacidad  de enfriamiento  y  dispositivos  para  evacuación  y/o  enfriamiento rápido, para el caso de incrementos bruscos del calor generado por las reacciones, sistemas adecuados de válvulas de cierre rápido de circuitos, etc.

     Debe recibir una  atención  especial  la  seguridad  del  personal durante la carga de  las  materias  primas,  durante  la  toma  de muestras y en el caso de salideros.  Durante  la  fase  de  diseño deben considerarse suficientes chequeos y  balances  que  permitan probar que aún los aspectos más críticos del diseño  son  seguros,

que los sistemas de control funcionarán adecuadamente  y  que  los fallos mecánicos o errores humanos no serán desastrosos.

 

5.6 Detalles de construcción.

 

5.6.1 Introducción

      El trabajo debe ser organizado de  forma  tal  que  cuando  se  ha culminado el diseño  de  la  planta  piloto,  un  gran  número  de personas de distintos departamentos se ha relacionado de una forma u otra con  el mismo. Los especialistas de mercadotecnia deben  de haber proyectado las características que debe tener el producto  y

en que tiempo se necesita; el departamento  de  ventas  solicitado las   cantidades   necesarias   de   muestras    y    desarrollado especificaciones  tentativas  para  el  producto;   los   abogados especializados  en  patentes  iniciado   los  contactos  con   los miembros del equipo de investigadores y comenzado la  revisión  de los libros de anotaciones  para  obtener  los  elementos  que  les permitan  hacer  las  solicitudes  de  patentes  pertinentes;   el departamento  de  producción  designado  un  representente  en  el proyecto y la dirección superior revisado el diseño de  la  planta piloto y aprobado la  continuación  de  los  trabajos,  o  sea  la construcción  de  la  planta  y  el   inicio   de   las   corridas experimentales.

      Además, antes que comience formalmente la  construcción,  se  debe emitir un Permiso de Construcción, para lo cual deben de estar  de acuerdo tanto el jefe de la Planta  Piloto  como  el  miembro  del colectivo encargado de las tareas de  Seguridad.  Para  garantizar que esto se ha  cumplido  adecuadamente  resulta  muy  conveniente utilizar un cuestionario, el cual debe servir para relacionar  los peligros potenciales considerados en el diseño y las posibilidades de funcionamiento incorrecto consideradas y evitadas  con  métodos de diseño adcuados.

      También  debe emplearse  este  cuestionario  para  relacionar  las facilidades auxiliares requeridas, las descargas de efluentes,  los materiales de construcción, etc, más una lista para  chequear  los equipos más importantes desde el punto de vista de la seguridad  y la protección del medio ambiente.

     Durante la construcción debe  de  asignarse  por  lo  menos  a  un miembro del equipo de dirección del proyecto piloto, para  que  se responsabilice con chequear que la planta se  construye  realmente como ha sido proyectada. Esto es especialmente  importante  cuando el trabajo de construcción de la planta piloto se realiza  por  el  propio personal que acomete el proyecto, en lugar de  contratar  a una firma especializada. Eso significa que las comunicaciones  son menos formales y existe por  lo  tanto  mayores  posibilidades  de interpretación inadecuada de las tareas, suposiciones incorrectas, sustituciones de equipos no autorizadas y errores de  construcción ocasionados por los deseos de acortar el trabajo, por lo cual  hay que tener un cuidado especial en esas situaciones.

     Adicionalmente a eso, los chequeos de la seguridad  futura  de  la instalación durante la construcción, permiten poder confirmar  que los  instrumentos  de  alivio  de   presión   se   han   instalado correctamente, que se han empleado los materiales de  construcción especificados y que los equipos de seguridad están accesibles, que

el espacio de trabajo no está abarrotado  y  obstruído  y  que  se haya previsto las rutas de escape del personal (34).

     Además, mientras se realiza la construccion de la  planta  piloto, se deben estar  desarrollando  en  paralelo  dos  actividades:  la confección de los manuales de operación  y  el  entrenamiento  del personal de operación. Las sesiones de entrenamiento del  personal son  magníficas  oportunidades  para  revisar  el  proceso  en  su conjunto y las reglas de seguridad de la planta piloto.  Se  deben chequear especialmente:

     Procedimientos de emergencia (en casos  de  daños,  accidentes,    derrames  o  descargas  accidentales,  falla   de   facilidades    auxiliares, etc.).

     La idoneidad del equipamiento de seguridad.

     Los sistemas de protección contra incendios

     Equipamiento de emergencia (duchas de seguridad,  fuentes  para    lavado de los ojos, máscaras contra gases y vapores, salidas de emergencia y sistemas energéticos de emergencia)

     Peligros especiales (por ejemplo cuartos calientes, sistemas de refrigeración, etc.)

     Disposición de residuales de forma segura y legal

      Finalmente, después que la planta se ha construído y  después  que los manuales de operación están escritos y  los  operadores  están entrenados, pero  antes  de  que  se  autorice  el  inicio  de  su funcionamiento,  se  debe  realizar  la  inspección  previa  a  la operación, la cual es un chequeo  final  para  asegurar  que,  por ejemplo, todos los posicionadores de las válvulas están instalados correctamente, que están disponibles  las  cartas  de  calibración para cada unidad, que las juntas están colocadas  realmente  entre los platillos, que las conecciones  a  tierra  y  las  uniones  de seguridad están colocadas correctamente y  en  todos  los  lugares necesarios, que se emplean  en  todos  los  casos  los  materiales adecuados de construcción.  Esto significa  de  hecho  la  realización  de  una  Auditoría  de Riesgos, igual a las que se realizan antes de la puesta en  marcha de una unidad  comercial (31).

      En los casos en que se tenga presencia de vapores  tóxicos  en  el proceso, se deben realizar pruebas  de  presión  específicas  para detectar salideros de gas, empleando un gas inocuo pero fácilmente detectable a la presión normal de operación.  Teniendo  en  cuenta que el olfato humano es un instrumento  extremadamente  sensitivo, se  puede  considerar  como  excelente  material   trazador,   una fragancia con un bajo umbral de  olor  como  el  etil  mercaptano. Después que se detecta la existencia de salideros, para  localizar los puntos en los cuales se producen, se puede emplear un detector de vapor electrónico o un método clásico  como  la  aplicación  de solución jabonosa.

      Con relación al peligro  de los vapores tóxicos, no se puede pasar por alto lo relacionado con los puntos de toma de  muestras  y  en algunos casos se deben tomar  precauciones  extremas  para  evitar riesgos de  contaminación ambiental o daños a los  operadores.  En esos casos se debe tener cuidado  también  con  la  seguridad  del técnico de laboratorio que va a analizar la muestra  y  todos  los métodos  de  manipulación  y  vertimiento  deben  ser   analizados cuidadosamente.

 

5.6.2 Materiales de construcción.

 

       En el caso de las plantas piloto dedicadas o  unipropósito,  éstas deben ser construídas, de ser posible, con los  mismos  materiales con que se construirá  la  planta  final.  Si  en  esa  etapa  del diseño hay todavía dudas sobre los materiales que se deben emplear en algunas áreas críticas, es necesario considerar la   colocación de pruebas de corrosión  de  manera  tal  que  se  puedan  evaluar adecuadamente los materiales más adecuados.

      Cuando la planta piloto es multipropósito, no son muy amplias  las posibilidades de selección de los materiales ya  que  los  equipos son generalmente de  acero  inoxidable.  de  acero  recubierto  de vidrio o totalmente  de  vidrio  y  por  ello,  en  los  casos  en que  se  empleen  productos  químicos  muy  corrosivos,  se  deben extremar las precauciones para evitar que se somete a los  equipos a una corrosión indebida.

      Cuando se conoce que las características del proceso  requiere  de una aleación especial se debe tratar  de obtener  el  equipamiento piloto construído con  dicho  material  o  en  su  defecto  deberá realizarse un compromiso y  utilizar  la  opción  más próxima. Sin embargo, aunque en muchas ocasiones es suficientemente  amplia  la selección de los materiales a emplear en los equipos  de  pequeña escala, en  la práctica en la mayoría de los casos la selección se realiza entre el  vidrio,  el  acero  recubierto  con  vidrio,  la cerámica, los recubrimientos de goma y los plásticos especiales.

 

5.6.3 Construcción en el exterior o bajo techo.

 

       Un elemento importante del diseño es dilucidar  si  la  planta  se construye en exteriores o en el interior de  un  edificio  y  ello depende generalmente  de  diversos  factores,  entre  los  que  se encuentran  las  condiciones  climáticas,  el  espacio  disponible (incluyendo la altura de los locales  interiores),  la  protección del medio ambiente y la seguridad.

      Cuando la configuración del equipamiento es razonablemente pequeña y  hay  suficiente  espacio   en   el   interior   del   edificio, probablemente la mejor opción es construir la planta  bajo  techo. De esa forma se protegerá la operación  de  las  inclemencias  del tiempo, se prolonga la vida de los componentes  más  sensibles  de la planta y  se  crean  mejores  condiciones  para  una  operación continua de la misma.

       Un aspecto importante a tener en cuenta para decidir si la  planta se construye en interiores o no, es la disponibilidad de altura en el interior del edificio y la existencia de columnas altas o de un sistemas de tuberías altas para vacío. Cuando la altura disponible no alcanza para acomodar esas instalaciones, lo más aconsejable es

situarlas afuera, ya que si se realizan cortes en el techo es  muy difícil  asegurar  posteriormente  el  sellaje  del  mismo  y  eso conlleva múltiples dificultades en la operación posterior.

       En esos casos una variante aceptable puede  ser  construir  en  el interior, el reactor y  las  demás  instalaciones  que  no  tengan dificultades con la altura del edificio y dejar la columna  en  la pared exterior,  colocando  los  condensadores  en  el  techo.  La instrumentación en todos los casos debe dejarse preferentemente en una  locación  interior  protegida  contra  las  inclemencias  del tiempo, no sólo para proteger los instrumentos en sí, sino también para la protección del personal de operación y para  asegurar  que los instrumentos sean atendidos adecuadamente, aún en  condiciones de mal tiempo.

 

5.6.3 Flexibilidad de diseño.

 

       La flexibilidad es normalmente un asunto relacionado con el costo. Una pequeña unidad piloto unipropósito, construída en  un  espacio muy reducido, conectada rígidamente por  tuberías  debe  tener  un costo relativamente bajo, pero permite muy  poca  flexibilidad  si las condiciones del proceso llegan a cambiar   significativamente.

       Por   otra  parte,  equipos  instalados   de   forma    espaciada, conectados por  tuberías  y  accesorios  fácilmente  desmontables, permitirán   fácilmente  cambios,  adición  de   más   equipos   o variaciones en la configuración de la planta, aunque debe resultar algo más caros que la variante menos flexible.

       Lo mejor es considerar desde  el  inicio  la  posibilidad  de  que durante la realización del proyecto, ocurran cambios considerables en el proceso y analizar si esa  posibilidad  es  suficiente  para pagar los costos de una mayor flexibilidad del proceso o al  menos para dejar posibilidades para esa flexibilidad. Con esta decisión se debe considerar que más tarde o  más  temprano los equipos piloto deberán fequerir algun tipo de ajuste, servicio o mantenimiento  y  por  consiguiente  es  imprescincible  diseñar considerando la serviciabilidad, aunque los costos se  incrementen ligeramente y con independencia de la flexibilidad que  se  defina para la instalación. El ahorro que se realizará  posteriormente  a la hora de realizar esos trabajos, debe compensar  con  creces  el incremento  que  pueda  representar  en  la  construcción  de   la instalación.

       Para lograr la accesibilidad de uma  instalación  piloto,  hay  un grupo de reglas básicas para el diseño y  la  disposición  de  los equipos, que son muy similares a los de las plantas grandes, entre las que se destacan:

1.   Mantener   una  distancia  razonable   entre  los  recipientes grandes y las distintas partes de los equipos  de  manera  tal que una persona pueda moverse  alrededor  de  los  mismos  con  facilidad. Esto incluye las  distancia  a  las  paredes  y  la consideración de que  los  operarios  de  mantenimiento  deben  acceder con sus herramientas  a  las  áreas  con  problemas  y  trabajar sin restricciones ni dificultades.

2.   Aislar las tuberías y superficies calientes, no sólo  para  la  conservación del calor, sino también para  la  protección  del     personal.

3.   Mantener siempre que sea posible las bombas pequeñas  y  otras instalaciones    menores    que    requieran frecuentemente     mantenimiento, fuera del contacto directo con el piso. Con eso se impide   la inundación de esos equipos cuando hay salideros o cuando se limpia el piso con mangueras.

4.   Dejar partes del interior del  edificio  disponibles  para  el  desmontaje y reparación de los equipos. Como ejemplo se  tiene el dejar suficiente  espacio  encima  de  los  reactores  para poder desmontar su tapa y el espacio  necesario  para  extraer los haces de tubos de los intercambiadores.

5.   Incluir conecciones para el enjuague con agua de los equipos y para la limpieza de los conductos. Esto es importante no  sólo para eliminar tupiciones en secciones de  tuberías  y  equipos sino que resulta fundamental para poder asegurar  la  limpieza de  las  tuberías  y  equipos  antes  que   el   personal   de  mantenimiento trabaje en los mismos. En muchos casos es suficiente con instalar conecciones tipo  T en las tuberías,  colocar cruces en lugar  de  codos  y  crear facilidades para introducir,  además  de  chorros  de  agua  u otras sustancias, cabillas u otros dispositivos  que  permitan eliminar obstrucciones..

6.   Utilizar preferentemente el tipo de aislamiento de espuma  que se produce in situ,  en  lugar   del   tipo   de   aislamiento  prefabricado en forma  de  tuberías,  ya  que  es  más  barato eliminar el aislamiento solamente en el  segmento  que  se  va a reparar y reponerlo  luego  con  facilidad,  que  tener  que desmontar una porción considerable del mismo.

7.   En los equipos metálicos se  deben  emplear  tantos  cristales para la observación como sea posible, ya que de esa forma   se puede tener  una  valoración  de  importantes  características físicas de los  fluidos  como  el  color  y  el  contenido  de sólidos, entre otros.

8.   En sistemas con vacío, se deben  incluir  muchas  válvulas  de aislamiento y conecciones para manómetors, de  manera  que  se pueda simplificar  la  detección  de  salideros,  al  permitir chequear una sección corta del sistema en cada prueba.

9.   Incluir   a  la  mayor  cantidad  posible  de   personal   con experiencia en el mantenimiento, en el equipo que  realiza  el diseño de la planta piloto, para asegurar  que  se  tengan  en cuenta   los   "pequeños   detalles"   relacionados   con   el  mantenimiento que tanta importancia  tienen posteriormente  en

10. el  trabajo práctico.

 

5.6.4 Selección del tipo de alimentación.

 

       La selección debe hacerse entre la alimentación por gravedad y  la realizada mediante el empleo de equipamiento de potencia  (bombas, compresores, etc.) y para ello  tiene  una  gran  importancia  las características de los fluidos que se deben alimentar, las  cargas disponibles y la precisión que se requiera para la medición de las corrientes de alimentacion al proceso.

       Los líquidos limpios y de poca viscosidad  se  pueden  suministrar fácilmente por gravedad y pueden ser controlados de manera precisa mediante recipientes de carga constante. Además si los recipientes se construyen de vidrio, se pueden  realizar chequeos visuales  de la alimentación. El control puede hacerse por válvulas de  agujas, si el líquido es realmente libre de sólidos.

      Sin embargo, cuando las corrientes de alimentación  son  sucias, es decir, contienen sólidos o tienen una alta viscosidad) o cuando se requiere un control de la proporción de múltiples corrientes de alimentación, es preferible la  alimentación  por  bombeo.  Existe disponibilidad  en  el  mercado  de  muchas  bombas  pequeñas   de desplazamiento positivo, útiles para  su  empleo  en  las  plantas piloto, como son las bombas de engranaje, de diafragma, de  pistón y  peristálticas,  en  muy  variados  tamaños  y   materiales   de construcción.

     Si la alimentación es de sólidos, hay que pensar con mas  cuidado. A pesar de que hay  disponibles  válvulas  rotatorios  de  pequeño tamaño,  las  mismas  pueden  no   funcionar   adecuadamente   por diferentes causas. También los alimentadores pequeños del tipo  de tornillo sin fin tienden a tupirse fácilmente y los  alimentadores

vibratorios, si bien pueden trabajar bien, causan problemas cuando la alimentación sólida debe ser introducida en un sistema  cerrado o bajo presión.

       Una buena solución pueden ser alimentar a través  de  una  tolva, controlando la salida de la misma con válvulas de  doble  mariposa controladas por tiempo, combinando ésto con   un  vibrador  en  la tolva para mantener los sólidos en movimiento.

       No obstante, si  los  sólidos  son  pegajosos,  polvorientos,  con tendencia  a  aglomerarse  o  higroscópicos,  la  mejor   solución problablemente  es  disolverlos  o  suspenderlos  en  un   líquido adecuado y alimentarlos  por  esa   vía.   Esta   solución   puede resultar especialmenmte  adecuada  en  los    casos   en   que  es posible  la alimentación discontinua.

       En algunos casos ocurre que un sistema  de alimentación  debe  ser piloteado junto con el sistema de reacción química y en  ese  caso lo mejor es consultar expertos en manipulación de materiales  para  determinar primero la mejor opción práctica para la planta de gran escala y  posteriormente  realizar  el  escalado  descendente  del

equipamiento de alimentación a emplear en la planta piloto. Ahora bien, si la metodología  de  alimentación  de  las  materias primas no es importante para el proceso, se debe buscar la vía  de adicionar losmateriales al proceso de la manera  más  conveniente que sea posible, con independenmcia de que no guarde la más remota semejanza con el sistema de alimentación industrial, ya que no  se debe dedicar esfuerzos en pilotear lo que no es imprescindible, de forma tal que se pueda concentrar  la  atención  en  los  aspectos verdaderamente importantes.

 

5.7 Operación de la planta piloto.

 

5.7.1 Selección de las variantes de operación.

 

a)- Operación continua versus discontinua.

       Mientras  que,  en  la  mayoría  de  los   casos,   los   sistemas discontinuos (batch),  son  más  fáciles  de  operar,  los  mismos requieren  equipos  más  grandes  para  una  misma  capacidad  de produccion y un mayor inventario de reactivos en  proceso  que  su contrapartida de proceso continuo.

       Los sistemas discontinuos normalmente modelan de forma muy cercana a los equipos de  laboratorio  y  permiten  el  uso  de  reactores tipificados. Los sistemas de alimentación no tienen  que  ser  muy sofisticados y la descarga de productos  y  toma  de  muestras  es también relativamente sencilla. Por todos esos  elementos,  si  el objetivo principal de la instalación piloto es probar una etapa  o producir muestras de campo, la operación  discontinua  resulta  la mejor opción.

       Los sistemas continuos, por  contraste,  son  más  complejos  para controlar y operar, pero las piezas individuales del  equipamiento son más pequeñas y el inventario en proceso es menor  que  en  los procesos discontinuos. Además, una  particularidad  interesante  e imporante de una unidad continua, por lo menos  mientras  está  en estado estacionario, es la uniformidad de su  producción,  ya  sea buena o mala.

       Sin  embargo,  generalmente  se  necesitan   reactores   diseñados especialmente por encargo, la instrumentación es  más  compleja  y en los procesos sofisticados el sistema de control en su  conjunto

llega a ser muy costoso. El  muestreo  de  corrientes  intermedias puede presentar problemas de accesibilidad y  representatividad  y se hace necesario la instalación de algunos equipos duplicados (de reserva), para poder evitar los riesgos de paradas por  fallas  en equipos.

       En  la  práctica  es  con  frecuencia  necesario   establecer   un compromiso y  considerar  un  proceso  con  un  sistema  combinado continuo-discontinuo. Por ejemplo, el reactor principal trabaja en el modo discontinuo y los  productdos  crudos  son  alimentados, a través de un almacenaje intermedio, en una cadena de  purificación continua,   para   lo   cual   resulta   imprescindible   calcular cuidadosamente la capacidad de almacenaje intermedia.

       Otra pregunta que normalmente debe hacerse es acerca de  la  forma en que se deben tratar las corrientes de reciclo. ¿Deben ser estas corrientes sintetizadas o debe emplearse para las mismas  material proveniente realmente de esa parte del proceso? Además, en el caso de ser material proveniente  del  proceso,  ¿debe  alimentarse  de forma continua o discontinua?.

       Las  corrientes  sintetizadas  son  ciertamente  más  fáciles   de manipular, pero difíilmente   representan  la  situación  real  de operación a gran escala. lo que puede provocar que  se  lleguen  a falsas conclusiones, puesto que no hay posibilidades de evaluar lo que ocurre después de varios ciclos de recirculación.  Por ejemplo cómo  y  qué  impurezas  aparecen  o  desaparecen,  cuál   es   la composición del estado estacionario, etc..

       En el caso que  sea  necesario  evaluar  factores  tales  como  la conversión por paso (rendimiento), la eficiencia  por  etapas,  el efecto de las recirculaciones, los requerimientos de purgado  y la composición en estado estacionario, hay que tomar especial cuidado para  utilizar  las  corrientes  de  alimentación  reales  en  las proporciones adecuadas y trabajar el proceso durante un tiempo  lo suficientemente largo como para que simule las condiciones  reales de operación de la planta.

 

b)- Turno de trabajo único o múltiple.

       Cuando  se  trata  de  una   planta   continua   no   hay   muchas posibilidades de elección, lo que no ocurre  en  el  caso  de  las plantas discontinuas. Por ejemplo, cuando el tiempo de reacción es corto, el número de operaciones requerido para completar un  ciclo (carga, calentamiento, reacción, enfriamiento, descarga, limpieza)

puede ser acomodado sin  problemas  en  un  turno  de  8  horas  y entonces la decisión de operar con uno  o  más  turnos  es  función solamente de elementos de programación, disposición de personal  y costo.

       Si un ciclo completo dura de 8 a 12 horas y la campaña  piloto  no es demasiado larga, se pueden establecer turnos de 10 a 12  horas, lo que si bien puede resultar  caro  por  la  necesidad  de  pagar sobretiempo, cuesta menos que un doble turno y obviamente requiere menos personal. Ciclos de 12 a 16 horas por templa o incluso mayores,  representan una complejidad adicional, ya  que  si  bien  la  mayoría  de  las personas no cuestiona  un  turno  de  16  horas  en  una  ocasión, probablemente ninguno está dispuesto a mantener de forma constante ese horario de trabajo.. Por esa razón, si la operación excede las 12 horas por  día,  se  necesitan  por  lo  menos  dos  turnos  de operadores.

       Finalmente hay que tener en cuenta que para pasar de 3 turnos por día durante 5 días a la semana  a  3  turnos  por  día  la  semana completa, requiere normalmente la existencia de un cuartdo  turno, lo que constituye un paso caro,  permitido  sólo  por  necesidades del proyecto.

 

c)- Requerimientos de materia prima y residuales.

 

       Es una buena regla reservar suficiente espacio para el  almacenaje interior de los materiales necesarios para una corrida de  por  lo menos un día.  Por  ello,  considerando  que  algunas  facilidades piloto no tienen capacidad  para  almacenar  o  manipular  grandes cantidades de tambores o paletas cargadas  con  sacos,  el  tamaño requerido para los equipos se debe limitar de manera  tal  que  se ajuste a dicha disponibilidad de almacenaje.

       Unido a los requerimientos de almacenaje de materia prima, está el problema de la  disposición  de  los  materiales  residuales.  Las plantas  piloto  poroducen  con  frecuencia  mayor   cantidad   de subproductdos y producto fuera de especificaciones y por lo  tanto inutilizable. que material comercializable, por lo cual  se  deben

realizar  los  arreglos  correspondientes  para   el   empaque   y laidentificación de los residuales, con  vistas  a  la  disposición segura y legal de los mismos.

       Entre los métodos de eliminación interna alternativos  se  tienen: Incineración (en un incinerador registrado y aprobado legalmente), limpieza  y  recirculación  o  procesamiento  ulterior   para   su conversión en un producto comercial. En el caso de las  corrientes de agua limpias tales como el agua de enfriamiento que no se  pone en contacto con el fluido, éstas pueden enviarse directamente a el alcantarillado municipal,  después  de  obtener  las  aprobaciones pertinentes por los organismos encargados  de  la  protección  del medio ambiente.

 

d)- Requerimientos de personal.

       Una instalación discontinua que  opera  en  un  sólo  turno  puede atenderse con un número mínimo de personas, las que pueden ser  un ingeniero y un técnico. El  personal  de  apoyo,  un  mecánico  de mantenimiento y un químico, por ejemplo,  sólo  se  necesitan  que estén localizables para casos necesarios. Sin embargo, una  planta  piloto continua con múltiples turnos de  trabajo  puede  realmente requerir bastante personal (Figura 1.1).

     Las decisiones que se tomen con relación al número  de  turnos  de trabajo, al tipo  de  operación  (continua  o  discontinua)  y  al tamaño de  la  instalación  piloto,  resultan  decisivas  para  la definición final de la cantidad  de  personal  necesario  para  el trabajo seguro de la misma.

 

e)- Necesidades de muestreo.

     Con relación a este tema, el problema  va  más  allá  de  la  toma física de muestras de una masa reaccionante en proceso.  Tiene  un peso fundamental que se tome  la  muestra  correcta  y  que  dicha muestra nos suministre toda la información necesaria,  compensando el esfuerzo y el costo.

       La tendencia general es a tomar más muestras de las necesarias,  a causa de los aspectos desconocidos del proceso, de forma  tal  que según se va avanzando en el aprendizaje  de  la  operación,  puede decrecer la necesidad de muestras o puede  ser  posible  almacenar las  muestras  (si   éstas   son   estables),   para   analizarlas posteriormente en caso de necesidad.

       Es una buena medida organizar un cronograma de toma  de  muestras, en el que se relacione la  cantidad  de  muestras  que  deben  ser tomadas en cada momento, lo que debe ayudar a mantener  el  número de  muestras  a  tomar  dentro  de  un  intervalo  aceptable  y  a planificar adecuadamente el trabajo de los analistas.

       Las técnicas de muestreo debe ser  diseñadas  y  probadas  con  la anticipación  requerida.  Los  sistemas  somedidos  a  vacío,  los sistemas de múltiples fases y  los tiempos de reacción muy cortos, representan problemas especiales para  el  muestreo  y  esto  hace evidente la ventaja de considerar el sistema  de  muestreo  en  su

conjunto al mismo tiempo en que realiza el diseño  de  la  unidad piloto de manera tal que se puedan considerar las facilidades  que se requieren para esos muestreos. 

       El sistema de muestreo en su conjunto debe ser diseñado  de  forma tal que  garantize  que  las  muestras  sean  representativas  del sistema. Los tubos sumergidos deben ser purgados con gas inerte o, como alternativa, antes  de  tomarse  la  muestra,  debe  purgarse previamente una cantidad de muestra igual  a  aproximadamente  dos veces el volumen del tubo sumergido. Se  debe  considerar  también como se garantiza la "congelación" adecuadan de la muestra después de tomada, de forma tal la misma representa realmente al  sistema, en el momento en se tomó la muestra. 

       También deben preverse la utilización de  recipientes   adecuados, como por ejemplo "bombas" de metal con válvulas en ambos  extremos que permita su  evacuación  y  purgado,  botellas  con  tapas  que  permiten la  inyección  de  muestras  con  jeringa  hipodérmica  o contenedores de gas especiales para no condensables. También  debe preverse  la  existencia  de  un  número   suficiente   de   estos aditamentos, para poder  compensar  las  posibles  demoras  en  el retorno de los mismos del laboratorio.Se debe considerar también que parte de  los  análisis  de  rutina pueden ser hechos por el propio personal de la planta  piloto,  lo que incluso debe incluir la operación de los cromatógrafos, cuando éstos no son muy complejos. En ese caso  el  cromatógrafo  de  gas

debe ser revisado y  calibrado  periódicamente,  por  el  personal calificado del laboratorio.

       Finalmente, en los casos en que  se  van  a  emplear  analizadores en línea, o los mismos van a ser piloteados  junto  con  el  nuevo proceso, se  deben  realizar  arreglos  que  permita  realizar  en paralelo los análisis químicos. La redundancia que se obtiene debe ser  eliminada  posteriornmente  cuando  se  haya  establecido  la credibilidad de los sistemas automáticos .

 

f)- Adquisición de datos.

       La recolección de datos puede ir desde un examen visual  periódico de los instrumentos y equipos hasta el registro de los  resultados en un sofisticado equipo automático para la recolección  de datos.La adquisición  manual de los datos es la  variante   menos  cara, siempre que se pueda  garantizar  que  todos  los  instrumentos  y equipos sean revisados en los intevalos predeterminados, lo que es suficiente generalmente  para  las  reacciones  no  críticas.  Sin embargo existen problemas, como son: las variaciones cortas de las variables que se están midiendo tienen muchas probabilidades de no ser detectadas; se pueden cometer errores de  transcripción;  está limitado el número de instrumentos que puede ser  revisado  y  los intervalos de tiempo entre lecturas es largo.

       Muchas  de  esas  deficiencias  son  eliminadas  con  el  registro electrónico  o  mecánico.  En  dependencia  de  la  velocidad   de respuesta, los eventos críticos serán  registrados  (aunque  puede haber aún una pérdida del tiempo en que eso ocurre, a menos que se haya instalado una alarma por contacto); los datos  obtenidos  son más precisos que los registrados manualmente y,  con  exepción  de los aspectos relacionados con el  costo,  no hay límites  para  el número de registros que se pueda hacer.

       Los problemas con los registradores  son  que  los  datos  en  las cartas pueden que no se lean apropiadamente  (especialmente cuando en una sola carta se registran múltiples puntos o  líneas)  y  los voluminosos registros de datos obtenidos es muy  probable  que  no sean examinados en su totalidad.  No  obstante  lo  anterior,  una combinación cuidadosamente seleccionada de indicadores  locales  y montados en  la  pizarra  y  registradores,  es  probablemente  la instrumentación más efectiva desde el punto de  vista  del  costo, para las plantas piloto promedio.

       Sin   embargo   en   la   actualidad,   la    disponibilidad de microcomputadoras ha hecho descender considerablemente el costo de los recolectores de datos de alta velocidad.  Todos  los  sensores pueden ser "interrogados" en intervalos extremadamente breves, que pueden llegar a cientos de veces por segundo si se desea.

Las  ventajas  de  los  instrumentos  computarizados  son:

1.   Pueden realizar manipulaciones matemáticas de los datos e  imprimir  sólo los resultados, tales como la diferenciación de la temperatura con respecto al tiempo para  obtener  los  datos  de  rapidez;  pueden mantener registro de las desviaciones del punto de  ajuste,  o  de condiciones fuera  de  tolerancias;  las  condiciones  de  alarmas pueden ser programadas digitalmente;  pueden  ser  ajustados  para imprimir solamente a intervalos de  tiempo  dados  o  cuando   los datos hayan cambiado, o cuando ocurre  una condición de  alarma  o desviación.

2.   Los datos  impresos  pueden  ser  mantenidos  en  un mínimo, ya que se  registran  solamente  los  eventos  y  cambios. Desviaciones rápidas tan pequeñas como 1 ms pueden ser captadas  y se pueden  determinar  cualquier  número  de  puntos  de  alarmas.

3.   En dependencia del equipo de impresión y registro  que  se utilice, se pueden  imprimir  en  rojo  las  desviaciones  de  las condiciones normalizadas, para llamar la atención y  se  tiene  la posibilidad de  seleccionar  entre  las  stripcharts  (para  las salida gráfica cuando diferentes curvas con diferentes escalas  se deben imprimir en una carta única), o las impresoras de línea  más caras, las cuales pueden  producir  tanto  salidas  gráficas  como digitales.

4.   Una  ventaja  adicional  de  los   recolectores   de   información computarizados es su habilidad para  controlar  el  proceso.  Para ello la salida digital de la computadora se convierte  en  señales analógicas, las cuales a su vez pueden  operar  relais  o  equipos similares  para abrir o cerrar válvulas, arrancar o parar  motores y energizar serpentines de calentamiento, normalmente a través  de rectificadores controlados por silicón .

5.   Cuando se acoplan con  un reloj en tiempo real,  los  sistemas  de ese tipo pueden realmente  dirigir  la  operación  de  una  planta piloto de acuerdo con un progrma predeterminado  y  si  algo  anda mal, puede guiarse por si mismo a una parada ordenada. 

      Este  alto nivel de automatización,  si bien es posible que  no  sea  deseado durante  las  fases  experimentales  primarias  de  una  operación piloto, puede perfectamente ser utilizado por  el   personal   una vez que la planta piloto se ha estabilizado y se mantiene operando con el propósito de  probar  el  proceso  o  producir  muestras de

producto.

      La elección del tipo de instrumentación depende  de  la  filosofía  general asociada con  la planta piloto. Un proceso  razonablemente directo, que debe ser operado solo por unas   pocas  semanas  para confirmar resultados de pequeña escala,   probablemente  no  puede justificar un paquete de instrumentación caro y complejo. Pero si el proceso a  estudiar  es  muy  complejo  y  existe   la posibilidad de la ocurrencia de exotermias súbitas, incrementos de presión o   descontrol  de la reacción, y si la planta piloto debe ser operada por meses, entonces puede ser justificado el empleo de los sensores de alta velocidad y los controles e incluso  el   uso de sistemas supresores de explosión.

 

g)- Analizadores y análisis.

       Si se considera emplear en la  planta  comercial  analizadores  de proceso en línea,  resulta conveniente pilotear  los  analizadores durante la operación piloto del proceso. En ese caso, a  pesar  de que los analizadores en línea, auto-muestreadores y similares  son equipos  comerciales,  se  deben  tomar   precauciones   para   su

utilización.

       Las corrientes que fluyen a través de los analizadores  deben  ser escrupulosamente  limpias,  necesitándose    para   ello   tamices filtrantes finos y gruesos  delante  de  dichos  instrumentos.  El gradiente de temperatura debe de mantenerse también para  prevenir la  condensación  no  deseada  de  algunos  componentes   de   las corrientes y  para  asegurar  la  reproducibilidad  analítica.  En algunos  instrumentos  es  imporrtante  prever  la  formación   de burbujas de gas en la  corriente  líquida  y  a  la  inversa,  los componentes gaseosos que entran en los cromatógrafos de gas  deben estar libres de gotas de líquido y de vapores que puedan condensar a la temperatura de entrada al equipo.

       Los instrumentos analíticos en línea, deben ser probados primero a nivel de banco y deben seguirse cuidadosamente  las  instrucciones del fabricante.  Resulta una buena idea el  poder  realizar  algún entrenamiento   de dos o tres días en la empresa productora  de  los equipos, sobre todo cuando no se ha tenido experiencia previa  con el tipo de equipo en cuestión.

       Finalmente, teniendo en cuenta que la corriente de  proceso  fluye directamente através del analizador en línea,  se  deben  realizar auditorías especiales de seguridad  relacionadas  con:  asegurarse que todas ls partes humedecidas  estén  hechas  de  materiales  de construcción compatibles; observar  especialmente  los  sellos  de

gomas (juntas, anillos,   etc), cámaras de filamentos  de  alambre calientes  y  similares  y  estar  seguro   de   especificar   los propios  niveles eléctricos seguros. Aquí hay que tener en  cuenta que  si  bien  muchos  equipos  electrónicos  son   intrísicamente seguros, se  debe  tener  cuidado  cuando  hay  presentes  relais, chuchos, filamentos calientes y llamas abiertas.

 

h) Planificación de las corridas experimentales.

       En la mayoría de los casos, el objetivo de  la  operación  de  las plantas piloto es la obtención de los  datos  necesarios  para  el diseño de la planta a escala completa, de la manera más  eficiente posible y para ello se requiere  operar  la  misma  en  diferentes valores  de  las  variables  y   correlacionar   el   rendimiento, eficiencia, pureza  u  otros  indicadores  convenientes,  con  las condiciones experimentales.

       Para poder cumplir ese objetivo eficientemente, la mejor forma  es la aplicación  del  diseño  experimental  estadístico,  utilizando procedimientos tales como los experimentos  factoriales a dos y tres niveles, los diseños compuestos centrales,  con  los  cuales  se  pueden reducir al  mínimo  el  número  de  corridas  necesarias  para  la completa exploración de todas las variables.

       Además, después de tener  en  la  mano  los  datos  experimentales obtenidos, se pueden utilizar diversos principios  de  correlación para hallar los valores óptimos de las variables de proceso. Entre esas  técnicas  están  la  programación  lineal,  la  programación geométrica, la optimización de  trayectorias y el análisis de las superficies de respuesta,  las  que  permiten tanto la optimización de los parámetros  constantes  (e.g.  tamaño del reactor,  tiempo  de  residencia,  temperatura  de  operación, flujos), así como de las variables independientes (tiempo, distancia).

 

i) Entrenamiento.

       Una planta piloto requiere  un  personal  alerta,  entrenado  para realizar la totalidad de las operaciones requeridas y para ello es necesario someter a dicho personal a un entrenamiento muy  similar al  que  se  somete  normalmente  al  personal  que   operará   la instalación a escala completa.

       Entre los elementos que fundamentan esta necesidad está  el  hecho que en este  tipo de plantas se trata con una serie de incógnitas, a  un  nuevo  nivel  de  escala.  Además  este   personal   deberá enfrentarse a la recolección y procesamiento de una gran  cantidad y diversidad de datos, desde las observaciones rutinarias para  la  operación hasta las mediciones  experimentales  más  cuidadosas  y detalladas. Se trata así mismo de ser capaz de  lograr  el  ajuste fino del proceso, alcanzando  la  optimización  de  cada  aspecto, desde las condiciones de operación hasta el rendimiento químico  y la pureza del producto.

       Finalmente, el colectivo de la planta piloto  debe  ser  capaz  de combinar todos  esos  novedosos  conocimientos  en  los  elementos decisivos para el diseño de un nuevo proceso  a  escala  completa, factible económicamente y práctico y  resulta  evidente  que  para ello  todos los miembros del equipo deben conocer  exactamente  lo que deben hacer y sus responsabilidades.

       Para asegurar lo antes expuesto, durante el entrenamiento  deberán contemplarse  materias  tales  como  la  química  del  proceso  en estudio, la filosofía  de  diseño  (objetivos,  escala,  duración,  restricciones),   selección    de    equipamiento,    racionalidad operacional, programas, organización de  la  operación,  tareas  y responsabilidades  individuales  y   evaluación   de   riesgos   y seguridad.

       El entrenamiento debe comenzar tan pronto se tenga  organizado  el  equipo  que  operará  la  planta   piloto,   debe   consistir   en conferencias, prácticas y sesiones de trabajo  en  equipo  y  debe abarcar todas las secciones con que cuenta la instalación  piloto. Si la construcción se encuentra en proceso  durante  ese  período, redsulta  muy  útil  interrumpir  periódicamente  el  proceso   de entrenamiento para realizar breves viajes de inspección al área de construcción.

       En el caso de las plantas piloto grandes  y  especialmente  cuando son del tipo unipropósito,  la  tarea  de  rotular  las  líneas  y válvulas constituye una excelente herramienta de entrenamiento, ya que esto conlleva la revisión  de  los  dibujos  de  tuberías,  el seguimiento del trazado en el terreno  y  la  familiarización  del personal con el equipamiento y su operación.

       l tiempo dedicado al entrenamiento, en cada una de  las  materias mencionadas, dependerá fundamentalmente de la  complejidad  de  la planta y muy especialmente del nivel de experiencia del  colectivo a ser entrenado. Es evidente  que  un  grupo  relativamente  nuevo requerirá un proceso de entrenamiento mucho mayor, incluyendo  los aspectos básicos de la operación  de  las  plantas  pilo,  que  un colectivo experimentado en estas labores.

 

j) Manuales de operación.

       La experiencia ha demostrado que resulta  muy  útil  redactar  los manuales de operación  aún  en  el  caso  de  las  plantas  piloto pequeñas, ya que esto representa un número de ventajas  entre  las que se destaca que el hecho de preparar el manual en si  mismo  es una excelente herramienta de entrenamiento, ya  que  con  ello  se

fuerza a los redactores del manual a pensar cuidadosamente   sobre cada etapa de las  operaciones,  o  sea  del  proceso  de  pruebas previas a la arrancada, de la puesta en marcha, de la operación  y de las paradas, normales y de emergencia.

       También un manual de operación permite tener toda  la  información conocida, convenientemente reunida,  lo que incluye la química del proceso  en  estudio,  la  descripción   del   equipamiento,   las instrucciones de operación,  los  procedimientos  de  seguridad  y emergencia, los datos de  seguridad  para  cada  producto  químico involucrado y los dibujos y esquemas. Esto lo hace   un  excelente libro de texto durante todo el proceso de puesta en  marcha  y  la operación de la planta piloto.

       Finalmente, si se  logra  mantener  su  actualización  concienzuda durante todo el desarrollo del proyecto, el manual se convierte en un documento histórico muy útil, un registro permanente de lo  que se ha hecho, cómo y porqué.

 

5.7.2 Procedimientos operacionales.

 

       La operación comienza, normalmente, con la circulación  de agua  o de algún otro solvente, lo que sirve como un chequeo final  y  una indicación preliminar  de que los operadores realmente conocen  la forma de operar el equipamiento. De esa forma  se  pueden  limpiar también  las  escorias, residuos   de   materiales   aislantes   y cualesquiera otros residuos que normalmente  se  acumulan  en  las tuberías y equipos durante el proceso de construcción y montaje.

       Posteriormente se  introducen  los  productos  químicos  reales  y lentamente, pero de forma segura, la unidad se pone en marcha y se llega a la condición en la que se pueden  comenzar  a  variar  las condiciones de operación, de acuerdo con  el  programa  elaborado, para comenzar a  acopiar  los  datos  de  interés  y  estudiar  el proceso, así como para comenzar a  realizar  las  correciones  que resulten pertinentes.

       Durante este proceso  debe  mantenerse  un  control  estricto,  no solamente en lo relacionado con la obtención  de  las  condiciones óptimas, sino  también  con  la  verificación  de  que  los  datos obtenidos sean ralmente reproducibles y útiles para el diseño.  Es necesario evaluar también el rendimiento  de  llos  equipos  y  la existencia de salidseros, tupiciones o  falta de control en alguna variable, de forma tal  que  ningún  aspecto  de  importancia  sea ignorado o pasado por  alto.  Hay  que  recordar  que  variaciones menores de la temperatura en un reactor  piloto puede convertirse, en el caso de la instalación completa,  en un peligroso descontrol de la reacción.

       Deben  analizarse  con  sumo   cuidado   las   razones   de   cada inconsistencia  que   se   detecte   y   estudiar   las   posibles consecuencias. De igual forma el resultado del proceso  de  puesta en marcha debe ser sometido a un análisis  intensivo  y  se  deben realizar   una   serie   de   preguntas   sobre   alternativas   y posibilidades, de igual forma a como se hizo en las auditorías  de seguridad de las etapas previas al diseño  y  construcción  de  la planta piloto.

       Si durante el desarrollo de las corridas previstas,  se  encuentra un grupo de dificultades muy superior a lo previsto y no se  logra la estabilidad deseada, lo más aconsejable es realizar una  parada  por uno o dos días, para analizar  con  cuidado  las  dificultades encontradas y decidir los cambios que se necesitan en la forma  de operar la planta, de manera tal de proceder a poner nuevamente  en marcha la planta, cuando se este  seguro  de  poder  alcanzar  los objetivos deseados en el plazo más breve  posible,  con  la  mayor calidad y seguridad.

 

5.7..3 Procedimiento a seguir después de concluida la operación de la planta piloto.

 

Una vez terminadas las corridas previstas, no termina  en  realidad el trabajo de la planta piloto. Primero es  necesario  proceder  a una parada bien ordenada y realizar  posteriormente  una  limpieza cuidadosa de toda la instalación, hasta alcanzar  niveles  seguros en el interior del sistema, que permnita el acceso  al  mismo  del

personal de mantenimiento.

       Si la instalación es una  planta  multipropósito,  la  misma  debe dejarse en iguales o mejores condiciones que como se recibió y  en condiciones de poder comenzar de inmediato con un nuevo  proyecto. Si la instalación es unipropósito,  deberán  realizarse  de  igual forma los trabajos de mantenimiento que sean necesarios  para  que

la misma quede de reserva, lista para  ser  puesta  en  marcha  si durante la etapa de  diseño  final  de  la  instalación  a  escala completa surgen problemas que así lo aconsejen.

       También es posible que surja la necesidad de poner  en  marcha  la planta piloto, si se presenten dificultades durante el período  de puesta  en  marcha  de  la  isntalación  comercial.   Incluso   es aconsejable en ocasiones, trasladar la instalación piloto hacia el lugar donde se construye la planta a escala  completa  para  poder realizar corridas con corrientes reales de la planta grande.

       Finalmente hay que tener en cuenta la importancia de la  redacción del  informe  técnico  final,  el  cual  debe  cubrir  todos   los resultados del trabajo de la planta piloto y el hecho  de  que  es muy difícil que esto se haga  después  que  el  personal  se  haya dispersado y enviado hacia  sus  funciones  originales.  Por  ello deberá contemplarse el tiempo requerido para  que  los  dirigentes del proyecto puedan completar dicho informe, antes de  que  se  de por terminado el proyecto piloto.

 

 


APENDICE

TERMINOLOGIA                          

 

La aplicación de la teoría de los modelos en  las  operaciones  de Ingeniería  Química  hace  necesario  la  introducción de  algunos términos técnicos nuevos y la importación  de  otros,  los  cuales pueden resultar no familiares para los ingenieros químicos. Aunque esos términos se han ido explicando según aparecen por primera vez  en el  texto,  resulta conveniente  que  se relacionen  en  orden  alfabético y se presenten nuevamente sus significados.

 

DEFINICION DE TERMINOS RELACIONADOS CON LA TEORIA DE LOS MODELOS.

 

Coeficiente de temperatura de 10 C: Rapidez de un  proceso  a  una  temperatura dada dividido por su rapidez a  una  temperatura  10 C menor. En sentido estricto las temperaturas deben ser 25 y 15 C  y si los coeficientes son evaluados a temperaturas mayores deben ser corregidos por la ecuación de Arrehnius

 

Componentes correspondientes: Aquellos componentes de sistemas que reaccionan químicamente, con respecto a los cuales se establece la semejanza.

 

Constantes dimensionales:  Cualquier  constante  en  una  ecuación física que cambia de valor  cuando  se  cambian  las  unidades  de medidas.

 

Control por acción de la  masa:  Control  de  la  rapidez  de  una  reacción química  provocada  por  la  acción  de  las  masas  como  ocurre en un sistema homólogo.

 

Diferencias de concentraciones  correspondientes:  Diferencias  de concentraciones entre pares de puntos correspondientes.

 

Diferencias de  temperaturas  correspondientes:   Diferencias   de temperaturas entre pares de puntos correspondientes.

 

Ecuación adimensional generalizada. Una ecuación  en  la  cual  se relacionan  grupos  adimensionales   mediante   una   función   no especificada.

 

Ecuaciones de escala: Ecuaciones adimensionales simplificadas  que especifican las condiciones de semejanza y las relaciones  de  las variables correspondientes en términos de  relaciones  de  escala, para un tipo dado de sistemas homólogos.

 

Ecuación potencial: Una ecuación en la cual la rapidez se iguala a la diferencia de  potencial  dividido  por  una  resistencia.  Las ecuaciones  potenciales  compuestas  pueden  ser de forma serie  o paralelo,  en  dependencia  de  si   las   diversas   resistencias están en serie o en paralelo.

 

Efectos de escala: Un alejamiento  de  la  semejanza  durante   el cambio de escala debido a la existencia de un régimen mixto.

 

Efectos de frontera: Alejamiento  de  la  semejanza  debido  a  la existencia de condiciones de frontera diferentes en el modelo y en el prototipo. También se conoce como efectos de pared.

 

Efectos de pared: Ver Efectos de frontera .

 

Elemento: Réplica de tamaño  completo  de  una  o  más  células  o componentes de un aparato prototipo.

 

Elemento modelo: El modelo a escala de un elemento de  un  aparato prototipo.

 

Experimentos  con  modelos:  Un  experimento   con    modelos,   a diferencia  de  una  prueba  de  planta   piloto,   significa   un experimento que emplea un modelo de un prototipo a gran escala  ya existente.

 

Extrapolación:  La  extrapolación,  en   su   aplicación   a   los experimentos con modelos y las plantas  piloto,  es  la  extensión de las relaciones  de  semejanza  a  sistemas  en  los cuales  las

condiciones  no  son  estrictamente  semejantes  y  se   basa   en suposiciones  empíricas  de  relaciones  de  potencias  entre  las variables.

 

Fuerzas correspondientes: Las fuerzas que actúan sobre  partículas correspondientes en tiempos correspondientes.

 

Homogeneidad dimensional: La condición de una ecuación  física  en la cual todos los términos tienen la misma dimensión.

 

Indice de Reynolds: El exponente del  número  de  Reynolds  en  la ecuación adimensional de rapidez de transferencia  de calor,  masa o momentum, en condiciones de convección forzada.(los  índices  de Reynolds para transferencia de calor, masa y momentum   no  tienen que ser necesariamente iguales en un sistema dado).

 

Ley de modelo: Ley de escalado ascendente aplicada  a  un  sistema  dado.

 

Mockup: Modelo estructural a escala completa, construído de  forma precisa, con propósito de estudios, prueba o demostración.

 

Modelo: Una réplica semejante geométricamente de  un  aparato  más grande denominado el prototipo, en el cual, a menos que se  señale lo  contrario, se asume que la relación de escalas sea la misma  a lo largo de los tres ejes  (Ver modelo distorsionado).

 

Modelo análogo: Aparato experimental mediante el cual  se  predice el  comportamiento  de  un  sistema  prototipo,  a  través  de  la observación de variables de clase diferente a  la  del  prototipo, pero que obedecen a una misma ecuación diferencial.Modelo de agua: Un modelo en el cual se simula con agua  el  flujo de aire o gas en el prototipo.

 

Modelo de rebanada (slice)  Un  elemento  modelo  derivado  de  un modelo completo,  mediante  la  intersección  del  mismo  con  dos planos paralelos en la dirección del flujo. Modelo distorsionado: Un modelo que tiene diferentes relaciones de escala a lo largo de ejes diferentes.  Existen  también  elementos modelos distorsionados

 

Operaciones críticas: Operaciones que forman parte de un proceso a escala piloto para las cuales  el  trabajo  de  la  planta  piloto resulta imprescindible, para poder obtener  los  datos  de  diseño

para la planta industrial.

 

Patrones de flujo: Forma geométrtica de las líneas de flujo de  un sistema de flujo de fluídos.

 

Planta piloto: Cualquier planta a escala pequeña,  utilizada  para suministrar información anticipada acerca de una futura  planta  a gran escala (Ver experimento con modelo).

 

Prototipo: Es el aparato a gran escala con el  cual  se  relaciona geométricamente un modelo o un  elemento,  con  independencia  del hecho de que el aparato a gran escala exista antes o  después  del modelo. En otras palabras, cada modelo  se  considera  relacionado con un rango  de  prototipos,  ya  sean  reales  o  hipotéticos  y viceversa .

 

Régimen: La naturaleza del  proceso  que  determina  la  variación  global  de  la rapidez de un sistema .

 

Régimen dinámico. Condición en la cual el proceso que determina la rapidez global es la dinámica física del sistema. En los  sistemas fluidos esta condición es el patrón de flujo.

 

Régimen mixto. Condición en la cual la razón de cambio  global  es influenciada por dos procesos, que tienen criterios  de  semejanza incompatibles.

 

Régimen   químico:  Condición  en  la  cual  la   rapidez   global determinante de un proceso, es una velocidad de  reacción  química

 

Régimen térmico: Condición en la cual la rapidez global de  cambio con respecto al tiempo determinante del proceso es la  rapidez  de la transferencia de calor.

 

Relación  de  escala:  Relación  de   las   dimensiones   lineales correspondientes en el prototipo y en elmodelo. En este  texto  se ha utilizado la convención de que la dimensión correspondiente  al

prototipo  será  siempre  el  numerador  de   la   relación,   con independencia de si el escalado es ascendente o  descendente,  por lo cual las relaciones de escala  serán  siempre  mayores  que  la

unidad. El símbolo para la relación o factor de escala es L.

 

Relación  de  escala   de   tiempo:   La   relación   de   tiempos correspondientes en la cual el correspondiente al  prototipo  está en el numerador de la relación. El símbolo  para  la  relación  de escala de tiempo es t.

 

Relacion de sección: La relación de las  áreas  de  las  secciones transversales correspondientes en el prototipo y en el modelo, con la misma convención que las  relaciones  de  escala  lineal  y  de tiempo y por consiguiente con valores siempre  por  encima  de  la unidad. El símbolo utilizado para la relación de sección es B .

 

Relación de  tiempos  de  residencia:  La  relación  del tiempo de residencia medio al mínimo o de la velocidad máxima a la media, en un recipiente a través del cual hay un flujo continuo.

 

Semejanza: La condición de dos o más sistemas enlos cuales hay una relación  constante  entre  las  cantidades  correspondientes.  La semejanza puede ser geométrica, mecánica, térmica  o  química,  de acuerdo con las propiedades con respecto a las cuales los sistemas son semejantes. Cada uno de esos grados de semejanza  incluye  los anteriores. La semejanza mecánica se se  subdivide  a  su  vez  en estática, cinemática y dinámica. Otras clases de semejanza como la eléctrica, están fuera del alcance de este libro.

 

 

 

Semejanza   cinemática:   Condición   de    sistemas    semejantes geométricamente en  los  cuales  las  partículas  correspondientes decriben trayectorias semejantes geométricamente en intervalos  de tiempos correspondientes

 

Semejanza  dinámica:  Condición   de   sistemas   en   movimiento, semejantes  geométricamente,  en  los  cuales  son   iguales   las relaciones entre las fuerzas correspondientes.

 

Semejanza   empírica:    Condición    de    sistemas    semejantes geométricamente en los cuales las  condiciones  en  el  modelo  se ajustan  empíricamente  para  producir  el  grado  deseado  de  de semejanza en el prototipo. En ese  caso  se  asume  que  cualquier cambio en la geometría del modelo producir un cambio semejante  al que  provoca  un  cambio  correspondiente  en  la  geometría   del prototipo.

 

Semejanza  estática  (o  semejanza  de  fuerzas   estáticas):   La condición de cuerpos  o  estructuras  semejantes  geométricamente, cuando  sometidas  a  tensión   constante   sufren   deformaciones relativas tales que  permanecen  geométricamente  semejantes y por consiguiente    lass    relaciones    de    los    desplazamientos correspondientes son iguales a la relación de escala.

 

Semejanza geométrica: La condición de dos cuerpos  o  espacios  en los cuales para cada punto de uno existe un punto  correspondiente en el otro

 

Semejanza mecánica: Término genérico que  engloba  las  semejanzas estática, cinemática y dinámica.

 

Semejanza   química:   La   condición   de   sistemas   semejantes geométricamente, cinemáticamente y térmicamente, en los cuales las diferencias  de  concentración  correspondientes   mantienen   una relació constante  unas  con  otras, o como caso  especial  de  la definición general, son iguales entre si.

 

Semejanza   térmica:   La   condición   de   sistemas    semejantes geométricamente  enlos  cuales  la  relación  de  diferencias   de temperaturas  correspondientes  es  constante   y   si   estn   en movimiento,  son  cinemáticamente  semejantes.  En  los  sistemas semejantes térmicamente los patrones de las isotermas, en  tiempos correspondientes, son semejantes geométricamente.

 

Símbolos: Hay dos convenciones generales acerca de las cantidades correspondientes  que  se  deben  señalar::

1-En las relaciones  de cantidades  correspondientes,  el  símbolo   con apóstrofe siempre se refiere al prototipo.

2-Las relaciones de  cantidades  correpondientes  se  denotan  con   caracteres en negrita, en los cuales se considera siempre que la   cantidad referida  al prototipo  está  en  el  numerador  de  la

  relación. Por ejemplo,  v = v'/v es  la  relación  de  la  velocidad  en  el prototipo (v') con la velocidad correspondiente en el modelo (v).

 

Sistemas  homólogos:  Sistemas  en  los  cuales   son   semejantes geométricamente la forma de los miembros sólidos  correspondientes o de los envolventes sólidos que encierran las masas de  fluido  y son idénticas la composición química y las propiedades físicas  en puntos correspondientes, al menos en el rango en que ellos afectan el proceso en estudio.

 

Superficie de control: Control  de  la  rapidez  de  una  reacción química por la rapidez de la tansferencia de calor o masa  através de una superficie o interfase, como ocurre  en  muchas  reacciones heterogéneas.

 

Técnica de "polvo y  pegamento"  (sticky-dust  technique):  Método cualitativo  de  observar  el  flujo  de  aire  sobre  superficies modelos, basado en cubrir las superficies con un material pegajoso e inyectar un polvo ligero en la corriente de aire  para  observar la distribución del polvo sobre la superficie, la  cual  varía  de acuerdo con la  distribución  de  la  velocidad  del  aire  en  el conducto.

 

Teoría de modelos: La teoría de  la  semejanza  aplicada  para  el escalado ascendente o descendente.

Tiempos correspondientes: Tiempos medidos a partir  de  una  fecha dada, en los cuales partículas correspondiente de  un  sistema  en movimiento han trazado líneas semejantes geométricamente, o en los cuales la temperataura ha cambiado en cantidades  correspondientes

en sistemas de transferencia de calor en estado  no  estacionario. Por   consiguiente   también   hay    intervalos    de    tiempos correspondientes.  La  relación  de  los  intervalos  de   tiempos

correspondientes es la relación de escala de tiempo t.

 

Tiempo de residencia promedio: En un recipiente de flujo continuo, el tiempo de residencia promedio  se  toma  como  el  volumen  del fluido en el recipiente dividido por la  rapidez  voolumétrica  de flujo.

 

Velocidades  correspondientes:  Las  velocidades   de   partículas correspondientes en tiempos correspondientes.

 

Velocidad reducida: La velocidad del fluido real, dividida por  la velocidad  crítica  inferior, en  el  mismo  sistema  a  la  misma temperatura y presión.


BIBLIOGRAFÍA

BIBLIOGRAFÍA  DEl CAPÍTULO 1

 

1-  ACADEMIA DE CIENCIAS DE CUBA, "Análisis  de  las  Técnicas  de     Escalado y  su  efecto  en  la  introducción   de   Resultados     Científicos",  documento  al  Pleno  del Consejo    Científico     Superior de la ACC, Editorial Academia, La Habana, 1991 .

2-   Baekeland, K.S., J. Ind. Eng. Chem., 8:184  (1916)

3-   Campbell, K.S.,  Chem. Eng., Octubre 7, (1968)

4-   Cinadr, B.F., Curley, J. K., Schooley, A.T., Chem. Eng.,  Enero 14, 62-76, (1971)

5-   Hoppe, T., Chem. Eng. Prog., 88(9), 70-75, (1992)

6-   ICIDCA,   "La Ingenierización de los   procesos    Químicos y  Biológicos",  documento presentado  al  Polo  Científico  del Oeste, Mayo 20, La Habana, 1992 .

7-   Johnstone, R.E., Thring,  M. W.,  "Pilot    Plants,    Models  and Scale-up  Methods in Chemical Engineering", Mc. Graw-Hill  Book Co., New York, 1957.

8-   Landau, R.N.,  Willians,  L.R.,  Chem.  Eng.  Prog.,  87(12),  65-69, (1991)

9-   Lowenstein, J.G., Chem. Eng., Diciembre 23, 62-76, (1985)

10-  Pavón, J.A., Flores, J., "Requerimientos  en la  Recolección  y tratamiento de los datos en los  estudios de    escalado",  Memorias 2do. Taller Internacional de Escalado, Escalado`93, Centro de Química Farmacéutica, La Habana, Abril de 1993 .

11-  Sáenz T., Gálvez, L.O., "Características de las  Tecnologías y factores a considerar para su  Comercialización", Memorias  2do. Taller   Internacional  de  Escalado,  Escalado`93,  La Habana, Abril de 1993.

12-  Sowa, Ch. J., Chem. Eng.  Prog.,  88(11),  67-75  (1992) .

13-  The Economist, Abril 16, 82-83, (1989).

14-  Trambouze, P., Chem. Eng. Prog., 86(2), 23-31 (1990) .

15-  Viñas,  S.,    Concepción    E.,   Montero,   R.,  "? Es   la  Ingenierización   la solución a los problemas del Escalado en la industria  Farmaéutica y la  Biotecnología?  Memorias  2do.Taller  Internacional  de Escalado,  Escalado'93,  C.Q.F., La  Habana,  Abril 1993.

16-  Winter,  P.,  Chem.  Eng.  Prog.,  88(2),  76-78  (1992).

17-  Zumalacárregui, Luisa,  "La  formación  de  Especialistas  en Cuba   y   la  Ingenierización  de    Procesos  Químicos    y     Biotecnológicos",  Memorias   2do. Taller  Internacional   de Escalado, Escalado`93, C.Q.F., La Habana, Abril de 1993.

  

BIBLIOGRAFÍA DE LOS CAPÍTULOS 2, 3, 4,5               

 

1-   Brizuelas, E., "Aspectos Fundamentales del Diseño de  Plantas Industriales ",  Tomo  II,  Capítulo  9,  708-746,  Editorial   ISPJAE, La Habana, 1987.

2-   ICIDCA, "La  Ingenierización  de  los  Procesos  Químicos   y  Biológicos",  documento  presentado  al  polo  científico del  Oeste La Habana, Mayo de 1992.

3-   Jonstone, R.E., Thring,  M. E.,  "Pilot  Plants,  Models  and  Scale-up Methods in Chemical Engineering", Mc.Graw-Hill Books C., New York, 1957.

4-   Kazatkin, A.G., "Operaciones  Básicas  y   Aparatos   en   la Tecnología Química", Tomo I, Editorial "Jimia", Moscú, 1981.

5-   Luyben, W.L., "Process Modeling, Simulation  and  Control for  Chemical Engineering", 160-165 ,Mc. Graw Hill Book  Kogabusha, Ltd., Tokyo, 1973.

6-   Mc. Adams, W.H., "Transmisión de Calor", Capítulo 5, 133-146, Editorial Ciencia y Técnica, La Habana, 1970.

7-   Mc. Cabe,  W.L.,  Smith,  I.C.,  "Operaciones Básicas  de  la  Ingeniería Química, Volumen I, 16-21, Edición Revolucionaria,  La Habana, 1986.

8-   Perry,  R.E.,  Green,  D.,  "Perry's   Chemical    Engineer's Handbook", 6ta Edición, Volumen I, páginas 2-113 - 2-116, 421-424 y 561-563, Edición Revolucionaria, La Habana, 1989.

9-   Ravinovich,  E.A.,  "Hidráulica",   Capítulo   8,   298 - 310 ,Editorial MIR, Moscú, 1987.

10-  Rosabal,  J., "Teoría  de  Los   Modelos   en  Ingeniería  de Procesos", Editorial Oriente, Santiago de Cuba, 1988.

11-  Rosabal, J.,  Garcell,  L.,  "Hidrodinámica  y   Separaciones Mecánicas", Tomo I, pagína 55, Editorial Pueblo  y Educación, La Habana, 1990.

12-  Stein, F.P., AIchE Journal, 33(12), 1986-1992, (1987)

13-  Trambouze, P., "Chemical Engineering Processing", 86(2), 23- 31, (1990).

14-  Viera, R.,  López,  S.,  Levy,  M.N., "Modelación Matematica para Ingenieros Químicos ", Editorial Pueblo y Educación, La  Habana, 1988.

15-  Viera,  R.,  Soler,  S.,  "Diseño  y  análisis  de  Reactores  Químicos", Tomo I, Editorial ENPES, La Habana, 1991.

16-  Von Stockar, U., Marison, W.,  "The  use  of  Colorimetry  in Biotechnology", en "Advances in  Biochemical  Engineering and  Biotechnology ", Vol 40, Editor A. Fletcher, Spring   Verlag,  Berlin, Heidelberg, 1989.

17-  Walas , S.M., "Cinética de las Reacciones Químicas", Capitulo 11, 314-326, Editorial Pueblo y Educación, La Habana, 1979.

18-  Wetty, J. R., Wilson, R.E.,  Wicks,  E.E.,  "Fundamentals  of  Momentum, Heat and  Mass  Transfer",  Capitulo  11,  143-153, Wiley International Editions, Jonh Wiley and Sons, Inc.,  New York, 1965.

 

 

BIBLIOGRAFÍA DEL CAPÍTULO 6:

1- Arlidge, B., Chem.Eng.Prog., 79(8), 35-40, (1983)

2- Baer, J. M., Chem.Eng.Prog., 79(7), 64-71, (1983)

3- Braun, R. L., Chem.Eng., Enero 15, 129-134, (1978)

4- Brizuelas, E., "Aspectos Fundamentales del Diseño  de  Plantas Industriales",  Tomo  II,  Capitulo  9,  708-746,   Editorial  ISPJAE, La Habana, 1987

5- Campbel, K. S., Chem.Eng., Octubre 7, 163-169, (1968)

6- Carr, J. W., Che.Eng.Prog., 84(9), 52-58, (1988)

7- Cinadrf, B. F., Curley,  J.K.,  Schooley,  A.  T.,  Chem.Eng.,  Enero 25, 62-76, (1971)

8- Chem.Eng., Octubre 4, 109-127, (1971)

9- Chem.Eng., Diciembre 18, 110-109, (1978)

10- Chem.Eng., Diciembre 17, 723-74, (1979)

11- Davidson, R. S., Chem.Eng.Prog., 82(12), 18-25, (1986)

12- Díaz, M., "El uso de las plantas Piloto", Memorias 2do. Taller Internacional sobre Escalado, Escalado'93), Centro de Química Farmacéutica, La Habana, Abril de 1993.

13- Dickey, D. S., Hill,  R.  S.,  Chem.Eng.Prog.,  89(6),  22-30, (1993)

14- Drew, J.W., Ginder,  A.F.,  Chem.  Eng.,  Febrero  4,  100-110, (1970)

15- Einhel, S., Olander D. L., Chem.Eng.Prog., 87(1), 27-30, (1991)

16- Fay, C. R., Chem.Eng.Prog., 82(12), 44-48, (1986)

17- Gaillot, F. P., Che.Eng.Prog., 83(10), 55-62, (1987)

18- Gundzik, R M., Chem.Eng.Prog.., 79(8), 29-34, (1983)

19- Hoppe, T., Chem.Eng.Prog., 88(9), 70-79, (1992)

20- Johnstone, R. E., Thring,  M.  E.,"Pilot  Plants,  Models  and Scale-up Methods in Chemical engineering"m Mc.Graw-Hill  Books  Co., New York, 1957

21- Kapnicky, J. A., Ind.Eng.Chem., 48(8), 47A-48A , (1956)

22- Katzen, R., Chem.Eng., Marzo 25, 95-98, (1968)

23- Kohlbrand, H . T., Chem.Eng.Prog., 81(4), 52-55, (1985)

24- Körner, J. P., Chem.Eng.Prog., 82(3), 62-66, (1986)

25- Lambert, P.  G.,  Amery,  G.,  Watts,  D.  J.,  Che.Eng.Prog.,  88(10), 53-60, (1992)

26- Landau, R. N., Williams, L. R., Chem.Eng.Prog., 87(12),  39-43,  (1991)

27- Lesins, V.,  Moritz,  J.  J.,  Chem.Eng.Prog.,  87(1),  39-43,  (1991)

28- Lowenstein, J. G., Chem. Eng., Diciembre 23, 62-76, (1985)

29- Palluzi, R. P., Chem.Eng.Prog., 87(1), 21-27, (1991)

30- Palluzi, R. P., Matty,  L.,  Chem.Eng.Prog.m,  83(10),  33-42,  (1983)

31- Palluzi, R. P., .Chem.Eng. Noviembre 9 (1987)

32- Pearson, W. K., Chem.Eng.Prog., 82(4), 25-33, (1986).

33- Peters, M., Tinmerhaus, K. D., "Plant Design and Economics for  Chemical Engineering", 4ta. Edición, Mc. Graw Hill  Book  Co., New  York, 1991.

34- Sinko, D. M., Chem.Eng.Prog., 87(1), 31-34, (1991)

35- Strickler, G. R., Chem.Eng.Prog., 82(12), 48-55, (1986)

36- Trambouze, P., Chem.Eng., Septiembre 10, 122-130, (1979)

37- Trambouze, P., Chem.Eng.Prog., 86(2), 48-55, (1990)

38- Vitenham,  L.,  Munjal,  R.,  Chem.Eng.Prog.,   87(1),  35-38,  (1991)

39- Worstell, J. H .,  Ginestra,  J.  M.,  Chem.Eng.Prog.,  89(6),  31-37, (1993)

40- XYTEL CO., Chem.Eng.Prog., 89(6), 3O, (1993)

41- Yanik, S.J.,  Graham,  J.  R.,  Chem.Eng.Prog.,  82(3),  35-40,  (1986)