Al ver a nuestro alrededor, es fácil
darse cuenta de lo cambiante que es la vida, el ambiente, e incluso
nuestro propio cuerpo, nada en la naturaleza parece detenerse y dejar de
cambiar. Cuando se monitorea algún fenómeno, es común hacerlo en
función del tiempo, como si esta fuera una variable controlable o que
siempre se comporta de la misma manera. Sin embargo, existen teorías que
nos dicen que el tiempo también puede cambiar en su forma de
concepción, y lo podemos experimentar en términos relativos, hasta el
punto en el que nuestra mente nos permite comprender. Entonces ¿qué es
lo que hace que las cosas cambien con el tiempo? ¿qué impulsa los
procesos para que saquen a los sistemas del equilibrio y estos puedan
cambiar? Cuando se analiza un fenómeno en el laboratorio se suele pensar
que este ocurre en forma independiente y es posible aislarlo, pero eso
esta muy alejado de la realidad, una realidad llena de variantes de
origen desconocido. Aparentemente, y es lo que se intentará exponer a
continuación, la inestabilidad de los sistemas y del universo es lo que
los enriquece, en procesos tan impredecibles, que estudiarlos es una
tarea titánica, pero con una impresión de haber sido planeados, ya que
en algo que parece caos, las cosas siempre guardan una tendencia hacia
el cambio y la evolución.
Procesos en función del tiempo
Cuando se desea monitorear un fenómeno,
lo primero que debe establecerse es la variable respuesta que indicará,
en forma directa o indirecta lo que ocurre visible o invisiblemente en
el objeto de estudio. Esta variable o conjunto de variables están
relacionadas al fenómeno a través de principios conceptuales, que
permiten dilucidar cuál es la dirección en la que los eventos asociados
se llevan a cabo.
Por ejemplo, si se va a estudiar la
lluvia, se establece como variable el nivel de lluvia en el que se llena
un área específica en un período de tiempo fijo, esto parece
arbitrario, pero al familiarizarse con esta terminología es muy simple
comprender el comportamiento de la lluvia.
En el caso de una reacción química, es
común determinar la concentración de una de las especies reaccionantes, a
través de métodos cuantitativos o análisis instrumental, siendo estos
últimos los que permiten un mejor monitoreo, ya que no son destructivos
para la muestra de estudio.
Para un proceso de transferencia de
calor, se monitorea la temperatura que puede cambiar con el tiempo, pero
también presenta diferentes valores en el espacio, ya que, al mantener
las diferencias, la energía seguirá moviéndose a través del
desplazamiento de partículas.
Cuando se toma una medición de estas
variables, el instrumento es muy importante, sabiendo que la precisión
de este puede afectar la calidad de los resultados y lo que se desea
extraer de ellos. Cómo ningún sistema puede estar totalmente aislado del
universo, la medición representa lo que en ese instante está ocurriendo
en todos los puntos del cosmos, desde una fluctuación en el sol hasta
un movimiento planetario en una galaxia muy lejana, todos estos factores
afectarán relativamente en forma inmensurable el resultado de dicha
medición. Esto provoca que prácticamente el valor que se toma en este
instante sea imposible de reproducir, ya que esa versión del basto
universo no puede volver a existir, siendo improbable que cada elemento
infinitesimalmente pueda volver a ese estado.
Por tanto, no es de sorprenderse que los
fenómenos que se analizan con el tiempo parezca que jamás cumplen los
modelos simples (simplicidad relativa) que nuestros razonamientos
matemáticos limitados puedan concebir, aunque pueda existir algún
acercamiento. Esto da origen a una dualidad de puntos de vista en el
estudio cinético, un punto de vista determinístico jamás podrá
representar o dar conclusiones sólidas, ya que no toma en cuenta la
variabilidad aleatoria que una compleja fenomenología, como la que se
comentó, pueda producir. El punto de vista estocástico trata de
adaptarse a esta abrumadora realidad, pues considera la existencia de un
error aleatorio que puede afectar las mediciones, conocido como ruido
(numéricamente hablando), es una forma empírica de aceptar que ningún
fenómeno es independiente, pero a su vez, que ningún método de medición
será capaz de tomar en cuenta todos los factores desconocidos que pueden
afectar.
La teoría del caos, con su conocido
efecto mariposa, parece apoyar este razonamiento. Asegurar que la caída
de una gota de agua en un lado del planeta podría causar un huracán en
el otro lado es una idea que parece descabellada, pero representa muy
bien lo que estadísticamente se está tratando de establecer y jamás se
podrá comprobar totalmente.
Siendo el investigador una parte del
mismo universo que está estudiando, no puede analizar las cosas desde un
punto de vista absoluto, siempre serán necesarias líneas de referencia
que le permitan comparar, y esa es la clave de una medición. El uso de
probabilidades ha sido la mejor manera de adaptarse al caos, ya que
permite ponderar los fenómenos con una frecuencia predictiva que les da
un cierto matiz de incertidumbre y que permite estimar o tratar de
predecir lo que va a ocurrir, pero el nivel de riesgo jamás será
eliminado.
Limitaciones en la modelación cinética
Por lo expuesto anteriormente, un modelo
cinético sufre de imprecisiones que dificultan la predicción, pero es
una necesidad utilizarlos, ya que para el diseño de sistemas que
requieren de estos fenómenos debe partirse de una base de cálculo.
El problema principal radica en que el
número de variables que se tomarán en cuenta debe ser limitado, para que
este no pierda la elegancia, pero no tan corto para darle poder
predictivo. Luego de esto, el error de estimación será el único enemigo
para estar seguros de que el sistema diseñado funcionará aceptablemente.
Una estación de alertas tempranas para
huracanes, un reactor para la producción de medicamentos, un
intercambiador de calor en una planta eléctrica, son ejemplos de
sistemas que siempre tendrán un factor de riesgo heredado de los
estudios que monitorearon el fenómeno relacionado antes de su diseño. El
trabajo del diseñador es reducir dicho riesgo al mínimo y tener las
herramientas para reparar cualquier daño.
Inestabilidad y fuerza impulsora
Cuando se inventó la máquina de vapor,
iniciando lo que se conoce como la revolución industrial, comenzó a
notarse que había fenómenos que aparentemente no están relacionados pero
que hacen funcionar las cosas de una forma misteriosa. El primero en
analizar a fondo y filosofar al respecto, pudo ser el físico e ingeniero
francés Nicolas Léonard Sadi Carnot, quien descompuso conceptualmente
la máquina a sus elementos más básicos, y logro descubrir, mediante
analogías con los molinos de agua, que para todos los fenómenos
espontáneos debe existir una fuerza impulsora producida por diferencias
en algunas variables en dos puntos que interactúan. Esto fue la base
para que más adelante se estableciera la segunda ley de la
termodinámica.
Esto indica que, para que la máquina de
vapor funcione, debe existir una diferencia de temperaturas que permita
hacer fluir calor a través de ella, lo mismo que ocurre en un molino de
agua, debe existir una diferencia de presiones que haga fluir el líquido
que hace que esta se mueva.
Extrapolando esto al resto del planeta,
podemos notar que las diferencias de temperatura y presión (sin contar
otras variables) son las responsables de diferentes fenómenos naturales a
diferentes escalas, como las lluvias, las corrientes de viento, los
huracanes, hasta incluso el comportamiento de los seres vivientes que
migran.
Si se analiza más de cerca, cualquier
movimiento del cuerpo humano es causado por una diferencia de fuerza que
saca la estructura de balance y lo hace buscar una nueva posición de
equilibrio, caminar por ejemplo es entonces un fenómeno espontáneo
producto de este desequilibrio.
Definir las variables impulsoras de un
proceso no es tan fácil como en el caso de las variables de monitoreo,
ya que debe estudiarse el fenómeno muy de cerca y definir primeramente
el estado de equilibrio, pues es del cual debe sacarse al sistema para
que este realice procesos espontáneos.
Para un proceso de transferencia de calor
y convección asociada, sabemos ahora que la temperatura es ese
potencial térmico que los impulsa, en el caso de un trabajo eléctrico
será la diferencia de voltaje, para un flujo de agua por un río la
diferencia de presión.
Alejando la lente de aumento hasta el
infinito, el universo es entonces un gran sistema heterogéneo, que
mantiene diferencias de potencial en todos sus puntos, lo que hace
posible la infinita cantidad de procesos que se interrelacionan y causan
la variabilidad que estadísticamente hemos analizado y que permite dar
al experimentador una gama ilimitada de sucesos para analizar.
En el momento en que todas las regiones
del universo igualen sus variables y este se convierta en un sistema
homogéneo energética y materialmente hablando, los procesos en su
totalidad se detendrán, llegando a un punto en el que el tiempo mismo
perderá su sentido.
Conclusiones
- Es imposible reproducir un valor de medición idéntico teniéndo infinita resolución, ya que el universo jamás volverá a la forma que tenía en el instante de la medición.
- Los modelos cinéticos y sistemas diseñados con estos siempre tendrán un nivel de riesgo que el encargado de su diseño debe minimizar.
- La heterogeneidad causa la inestabilidad que permite los procesos espontáneos, impulsados por las diferencias de potencial que son imposibles de recuperar.
- El investigador debe adaptarse a la variabilidad de los fenómenos que analiza, jamás pensar que sus modelos son la única explicación.
- Debe apreciarse la belleza en el aparente caos del universo, ya que prácticamente este es el que les da vida a todos sus sistemas.
- El enfoque estocástico permite manejar los niveles de riesgo en cualquier sistema que se diseñe mediante un modelo cinético.
https://www.facebook.com/WEFC87
https://www.instagram.com/wefcdraw87/
https://twitter.com/WFagiani
https://www.facebook.com/WEFC.Comics/

No hay comentarios:
Publicar un comentario