La exactitud de lo inexacto, cambio climático

La exactitud de lo inexacto, cambio climático

07/12/2013 0

En los últimos 60 años, muchas disciplinas científicas han logrado revertir o mejorar su imagen pública frente a la sociedad. Ello se debe, en parte, al gran desarrollo tecnológico producido desde el final de la segunda guerra mundial. La mejora en equipos de medición y de análisis, entre otras cosas, ha ayudado a acortar la brecha entre comunidad y ciencia. Si bien la meteorología es un área relativamente nueva, no goza de este beneficio y lamentablemente carga sobre sus espaldas el enorme peso de los errores cometidos por sus imprecisos pronósticos. En una sociedad como la actual, que valora más el error que la virtud, el horizonte meteorológico se vislumbra oscuro.

Este problema radica en varias cuestiones. Por un lado, la atmósfera es un fluido en movimiento modificado constantemente por la actividad humana. Por otro, el factor principal se basa en que las ciencias exactas han creado y explotado una imagen falsa de sí mismas pues, justamente, no son exactas. La meteorología es el exponente más claro de esta afirmación. Sin embrago, es posible ver el lado positivo

de esta rama de la ciencia si se analiza detalladamente el concepto “pronóstico del tiempo”. La idea de predecir las condiciones del tiempo conlleva en su origen una fuerte implicancia matemática y un conjunto de incertezas intrínsecas al sistema, imposibles de sortear. Al referirnos a la predicción del tiempo básicamente asumimos que este proceso involucra la resolución de un conjunto de ecuaciones no lineales en derivadas parciales y su integración en el tiempo mediante métodos numéricos. Matemáticamente hablando, la solución de este sistema puede reducirse a un problema de valores iniciales. Consecuentemente, la calidad de la predicción dependerá del grado de realismo con que las ecuaciones elegidas representen el fenómeno (calidad del modelo) y por otro lado, del conocimiento exacto de las condiciones iniciales del sistema (calidad de las observaciones).

Históricamente mucho se ha trabajado en este sentido. Las raíces de la predicción numérica pueden rastrearse hasta las investigaciones de Vilhem Bjerknes, físico noruego que en 1904 publicó trabajos que sugerían que es posible pronosticar el tiempo a través de la resolución de un sistema de ecuaciones en derivadas parciales no lineales. En 1922, Lewis Richardson retomó el problema y generalizó el sistema fundamental de ecuaciones incluyendo efectos diabáticos, proponiendo una solución numérica mediante el empleo del esquema de diferencias finitas. El avance fundamental de su propuesta radicó en que el problema numérico quedó reducido a una secuencia bien definida de operaciones aritméticas simples, que integraban las ecuaciones con un esquema de diferencias finitas adelantado en el tiempo. Como contraparte, su déficit era el excesivo tiempo que implicaba confección de un pronóstico a 6 horas (3 meses y medio de cálculos manuales…).

El tiempo transcurrió, las investigaciones continuaron y en 1948, John Von Neumann, el creador de la primera computadora (ENIAC), convocó a un grupo de meteorólogos teóricos, comandados por el Dr. Richard Charney en el Instituto de Estudios Avanzados en Princeton, New Jersey para emplear el computador como herramienta de pronóstico. Como resultado, en 1949 se construyó el primer modelo simplificado de la atmósfera a través de un sistema de ecuaciones de movimiento filtrado (i.e modelo cuasi-geostrófico) que excluía las ondas de sonido y gravedad producidas. En abril de 1950 se efectuó la primera predicción no lineal del tiempo. Aunque el pronóstico de las condiciones del tiempo a un día demoró más de 24 horas (a causa de las repetidas sobresaturaciones de la memoria en la ENIAC), el resultado fue exitoso. El primer pronóstico operativo (en tiempo real) se realizó en Suecia bajo la dirección del Dr. Rossby, en septiembre de 1954. Seis meses más tarde, se iniciarían los pronósticos operativos en Estados Unidos.

Desde entonces, muchas mejoras se han introducido en los modelos, básicamente intentando optimizar los métodos numéricos empleados. Además, el aumento de la capacidad computacional permitió incrementar la resolución tanto espacial como temporal de las previsiones y realizar una menor cantidad de aproximaciones. En las últimas décadas se han perfeccionado los acoples entre modelos oceánicos y atmosféricos. El empleo de información satelital ha permitido generar modelos de suelo y relieve más precisos. Además, se han obtenido avances en la calidad de las parametrizaciones gracias a una mejora de la representación de los procesos de menor escala como nubosidad, precipitación, radiación, transferencia turbulenta de calor, humedad y cantidad de movimiento. La mayor disponibilidad de datos, especialmente provenientes de satélites, sobre las inmensas zonas oceánicas del Hemisferio Sur y la aplicación de metodologías más exactas en los procesos de asimilación de datos, han redundado en un incremento en la calidad de las condiciones iniciales en los modelos. Estas cuestiones han provocado una sensible optimización de los pronósticos a corto plazo.

El hombre como especie ha intentado siempre conocer el futuro. De alguna manera el pronóstico del tiempo ha logrado ese objetivo con cierto grado de precisión y rigor científico. En síntesis, es cierto que los pronósticos no son exactos, es erróneo creer que alguna vez lo serán. Lo bueno es pensar que a pesar de todos los inconvenientes mencionados los resultados de esta disciplina inexacta superan ampliamente el umbral estadístico de aceptabilidad.

Lic. en ciencias de la meteorología Carlos Sotelo

Alejandra Gonçalves Mendes
alejandra