Libro recomendado: “La Estructura de las Revoluciones Científicas”, de Thomas S Kuhn

Recientemente he leído el conocido ensayo de Thomas S Kuhn La Estructura de las Revoluciones Científicas* (a partir de ahora me referiré a él simplemente como La Estructura).

Un filósofo y un historiador de la ciencia me hablaron hace ya tiempo de este autor, y tras buscar un poco acerca de él salta a la vista antes que nada su obra de referencia: La Estructura. Ciertamente se trata de una obra central y de gran importancia en la historia y filosofía de la ciencia. Su primera edición fue publicada el 1962, y desde entonces se ha convertido en un éxito de ventas, en parte debido a un lenguaje mucho más accesible que la mayoría de obras clásicas de filosofía de la ciencia.

Pero esta obra no está dirigida sólo a filósofos o historiadores, sino que cualquier persona que practique o estudie la ciencia, o mejor dicho, especialmente aquellas personas que están involucradas de una u otra manera en la ciencia encontrarán en La Estructura un excelente y completo análisis transversal sobre la manera en que la ciencia progresa y evoluciona a través de la historia, y adquirirán una nueva visión que hará que cambie totalmente su percepción de dicha actividad incluso en el presente.

Kuhn era físico de formación, y completó su doctorado en física del estado sólido. Pero las cuestiones filosóficas, epistemológicas y sobre todo históricas de la ciencia, por las que sentía un gran interés, acabaron por alejarlo de la práctica de la física, dedicando su tiempo a estos asuntos durante el resto de su vida. No hace falta decir, pues, la gran ventaja de la que partía respecto a otras personas que se dedicaban a este campo sin haber pasado por una carrera científica.

Así pues, en La Estructura, Kuhn toma prestado de la política el término “revolución” y lo aplica a la ciencia en un sentido parecido, de forma que hablamos de una “revolución científica” cuando, en una disciplina concreta de la ciencia, se da un gran cambio en la manera en que los científicos entienden y practican la ciencia. Este es en esencia el mecanismo mediante el cual progresa la ciencia.

Cuando se produce una revolución científica tiene lugar un cambio de “paradigma”. Es este un término central en la obra. Un paradigma es el conjunto de creencias, teorías y modelos (tanto teóricos como prácticos) aceptados por una comunidad de científicos en un momento dado. El paradigma proporciona las herramientas y el marco teórico necesarios para entender un conjunto de fenómenos naturales, y poder desarrollar la instrumentación necesaria para investigar estos fenómenos con más detalle. (Un par de ejemplos de paradigma usados en el ensayo serían la mecánica newtoniana o la óptica geométrica.)

Una idea importante del ensayo es que el único objetivo concebible para esta instrumentación es aumentar la precisión de las medidas, o dicho de otra forma, los experimentos se diseñan para aumentar el número de cifras significativas de parámetros como, por ejemplo, una constante. Esto es debido a que el paradigma contempla la existencia de unos fenómenos determinados, e incluye las herramientas para medirlos (o como mínimo indica el camino para desarrollar la instrumentación correspondiente); por lo tanto no es posible diseñar experimentos para medir fenómenos aún desconocidos y, en consecuencia la ciencia, bajo el amparo del paradigma actual, se mantiene en una especie de “estado estacionario”, si bien Kuhn en ningún momento usa esta expresión. En su lugar, el autor nos habla del periodo de “ciencia normal”.

Sin embargo, sabemos que la ciencia avanza, por lo tanto debe haber un mecanismo que induzca los cambios de paradigma. De acuerdo con Kuhn, durante la investigación de la ciencia normal, a pesar de que los experimentos se diseñan en función del paradigma vigente, a veces éstos presentan anomalías en sus resultados; es decir, que el experimento muestra un comportamiento de la naturaleza que no está de acuerdo con el paradigma. Un ejemplo de anomalía sería el experimento de Michelson-Morley, que demostró que no existía el éter, el medio en el cual se suponía, según el paradigma de la naturaleza ondulatoria de la luz, que debía propagarse la luz.

Cuando se produce una anomalía, normalmente los científicos al principio desconfían de ella, y revisan el experimento en busca de errores. Si ésta persiste, intentan explicarla en términos del paradigma; intentan ampliar éste de manera que incorpore a la anomalía. Si aún así la anomalía se resiste a ser explicada, se produce una situación de crisis.

En la crisis el paradigma no puede explicar las anomalías o desviaciones del experimento, y por lo tanto los científicos empiezan a buscar nuevas soluciones más o menos creativas, y un nuevo paradigma empieza a tomar forma. Surge entonces un enfrentamiento entre los partidarios del nuevo paradigma, y los que apoyan al anterior y siguen buscando una forma de que incorpore al nuevo fenómeno. Normalmente, al cabo de un tiempo acaba “ganando” el paradigma nuevo debido a que tiene una mayor capacidad de explicar la realidad que le rodea y de resolver “rompecabezas”, y aquellas pocas personas que aún creen en el paradigma antiguo, son automáticamente excluidas de la comunidad científica.

Hay un aspecto de la tesis de Kuhn en mi opinión un poco confuso, y es que según el autor, hay un cierto relativismo a la hora de comparar un paradigma determinado con alguno de sus sucesores o predecesores. En algún momento un lector (me incluyo) puede sentirse inclinado a interpretar este relativismo de la misma forma que el relativismo cultural, según el cual no hay culturas mejores o peores que otras (para poder llegar a semejante conclusión habría que hacer la valoración desde una posición ajena a cualquier cultura, lo cual es imposible). Pero este no es el relativismo al cual hace referencia Kuhn, sino a otro con un alcance y sentido muy concreto. Muchas personas tienen la percepción de que la ciencia, a medida que avanza, se va acercando cada vez más a la verdadera naturaleza del universo, es decir que la sucesión de paradigmas tiende a converger hacia un punto concreto. Y es en este sentido en el que se plantea el relativismo, que viene a rechazar esta visión; pues de acuerdo con el ensayo ningún paradigma está más cerca o más lejos de esta supuesta verdad absoluta, ya que esta no existe. Eso no implica un relativismo absoluto, ya que cada nuevo paradigma permite resolver más rompecabezas que el anterior y amplía la cantidad de fenómenos que contiene, entre otros muchos indicadores que podríamos usar para comparar paradigmas entre sí. Kuhn usa la analogía de la evolución biológica, en la cual cada forma de vida es más compleja que la anterior, pero sin haber ningún objetivo que alcanzar. Además propone el ejemplo del cambio de paradigma de la mecánica aristotélica a la newtoniana, y de la newtoniana a la einsteniana. En la mecánica aristotélica los cuerpos caían al suelo porque formaba parte de la naturaleza de éstos; más tarde Newton planteó la ley de la gravitación, sin preocuparse de por qué los cuerpos se atraían, simplemente afirmaba que lo hacían y enunciaba la correspondiente ley. Muchos vieron eso en su día como un paso atrás, si bien el paradigma newtoniano se acabó imponiendo por su enorme capacidad para resolver rompecabezas. Y luego llegó la teoría de la relatividad de Einstein, que en muchos aspectos era más cercana a la mecánica aristotélica que a la de Newton, lo cual evidencia la no-convergencia de la ciencia.

En este sentido, recuerdo una conversación que mantuve con un profesor de filosofía (el mismo que me habló de las ideas de Kuhn y que he mencionado más arriba), en la cual yo trataba de convencerlo acerca de la convergencia de la ciencia bajo el argumento que desde un paradigma nuevo se puede derivar el antiguo. Así, por ejemplo, de la mecánica cuántica se pueden deducir las leyes de la física estadística y de la termodinámica, y la mecánica newtoniana se puede deducir como un caso especial (aquel en que v<<c) de la einsteniana. Pero Kuhn también tiene una respuesta a esta objeción que no deja mucho margen a la discusión. En efecto, si llegamos a las leyes de Newton desde la relatividad, las variables de estas leyes seguirán sujetas al significado que les concede la teoría de la relatividad, significado que no era accesible cuando aún no existía tal teoría. Y si se cambia el sentido de estas variables, adaptándolas a las leyes de Newton, entonces ya no podemos hablar de derivación. Esto tiene relación con otra idea que intenta transmitirnos el autor, según la cual cada paradigma no sólo implica una forma diferente de ver el mundo, sino que de facto cambia el mundo en el que habitan los científicos.

Por lo tanto, en definitiva no debemos ver la ciencia como un proceso puramente acumulativo, en el que cada científico pone un ladrillo en el gran edificio de la ciencia. La idea de que a alguien algún día se le ocurre “de la nada” una buena idea que somete a la verificación experimental no se corresponde con la realidad. Usando la analogía del ladrillo y el edificio, más bien un grupo de científicos ha construido un edificio, luego surge un fallo en el diseño arquitectónico y otro grupo de científicos (o el mismo) empieza la construcción de otro edificio donde ese fallo está arreglado.

Si todo esto es cierto ¿cómo es que la visión de la ciencia incluso entre los científicos está tan alejada de la realidad? Según Kuhn las revoluciones científicas son sistemáticamente camufladas en pro de que los textos científicos sean didácticos. Esto hace de la ciencia y su aprendizaje una actividad tremendamente efectiva y eficiente, si bien sacrifica rigor histórico. Compárese este aspecto de las ciencias naturales con las ciencias sociales y su constante necesidad de recurrir a los clásicos (Marx, Durkheim, etc en el caso de la sociología).

Estas son a mi parecer las ideas principales que intenta transmitir el texto. Kuhn dedica más de 300 páginas en desarrollarlas de forma clara, ordenada y repleta de ejemplos. Todo con el objetivo de cambiar la idea errónea que la mayor parte de nosotros tenemos de la ciencia como proceso puramente acumulativo, “limpio” y ordenado.

*KUHN, Thomas S. La Estructura de las Revoluciones Científicas. Solís, Carlos (prol., trad.). 3a ed. México D.F.: Fondo de Cultura Económica, 2006. 360 pp. [El prólogo de Carlos Solís está bastante bien].

Publicado en Historia/Filosofía de la Ciencia, Literatura | Deja un comentario

Linus Pauling: el Einstein de la química

En general los químicos nunca han gozado del glamour de los físicos o los biólogos. Darwin, Newton, Einstein, Stephen Hawking, son nombres relativamente conocidos para la gente que no está metida en ciencias. Pero no ocurre lo mismo si preguntas por algún químico importante; Walter White dirán algunos.

Lo cierto es que químicos destacados los hay muchos: Lavoisier, Arrhenius, Hess, Dalton, Marie Curie, Haber, Nernst, Mulliken… La lista es larga. Sin embargo, y esto es muy subjetivo (ya que todos eran grandes genios), para mí destaca entre todos ellos Linus Pauling. No sólo por la gran cantidad de contribuciones que hico a la química (también algunas en física), ni por el amplio espectro de campos de la química en los que hizo sus contribuciones, ni por la importancia de éstas, sino también por ser un científico comprometido hasta el final con sus ideales filantrópicos y pacifistas. Debido a esto es la única persona que ha ganado dos premios Nobel de manera individual (Química y Paz).

Se podría decir que es el fundador de la química moderna: la sistematización de la estructura atómica y molecular mediante la entonces recién nacida mecánica cuántica fue su gran contribución.

Debido a su importante contribución en la química, su compromiso con la sociedad y la gran popularidad de que gozó en EEUU, creo acertada la analogía que da título a esta entrada. Pauling y Einstein, cada uno en su respectiva ciencia, siguieron caminos parecidos, que llegaron a cruzarse en varios puntos, y estuvieron siempre caracterizados por la genialidad y el respeto mútuo.

La primera vez que supe acerca de Linus Pauling fue como autor de un libro de química general que compré a través de internet. Desde entonces mi interés por este ilustre personaje no ha hecho más que crecer. Recientemente he podido indagar un poco en su biografía como parte de un trabajo de la facultad que tuve que hacer, y que he decidido añadir a continuación:
Seguir leyendo

Publicado en Ciencia general, Historia/Filosofía de la Ciencia | Deja un comentario

Química verde – los retos del lado más verde de la química

Tanto la ciencia como la industria químicas han cultivado -de forma merecida- una mala fama en cuanto al medio ambiente, la contaminación y la salud de los seres vivos (incluyendo humanos). Si recordamos accidentes como el de Seveso en 1976 (con cientos de personas que vieron gravemente afectada su salud) o el de Bophal en 1984 (con un balance de varios  miles de muertos), no ha de extrañarnos que muchas empresas vendan sus productos junto a llamativos eslóganes como “sin productos químicos”, “libre de química” o “hecho con productos naturales” (como si en la naturaleza no hubiera sustancias venenosas…).

Si bien los problemas de contaminación química ya existen desde el Imperio Romano (en este caso por metales pesados, debido a los acueductos hechos de plomo), la problemática cobra una nueva dimensión con el desarrollo de la química orgánica sintética. El problema es que tal disciplina trata con productos orgánicos, que por lo tanto son susceptibles de interferir en el funcionamiento biológico de cualquier ser vivo, y además estos productos orgánicos son en su mayoría ajenos a la naturaleza y la evolución no ha tenido aún ocasión de “probarlos”. Hay que tener en cuenta que antes de la aparición de la química orgánica sintética, todos los productos orgánicos existentes en la tierra provenían de seres vivos, y estaban probados por más de 600 millones de años de evolución. Esto es algo que ahora, con miles nuevos compuestos orgánicos sintetizados cada año de forma artificial no es posible.

La mayoría de compuestos sintetizados a gran escala son orgánicos (400.000.000 toneladas de compuestos orgánicos fueron sintetizadas el 2004, 250.000.000 más que en 1995), y una gran parte son usados de forma masiva en la naturaleza, por ejemplo en forma de pesticidas, lo cual representa un problema grave.

Entre los contaminantes químicos más perjudiciales destacan 12, bautizados como los “12 sucios” o los “12 POP’s” (POP: Persistent Organic Pollutants, contaminante orgánico persistente). La gran mayoría de estos compuestos llevan cloro, y han sido prohibidos en muchos países por ser perjudiciales para la salud, además de persistentes (se conservan a lo largo de la cadena alimentaria). Todos ellos son orgánicos, nueve de los cuales son plaguicidas, dos son famílias de subproductos industriales (dioxinas y furanos), y uno de ellos representa una familia de compuestos industriales (PCB’s).

Todo esto cambió con la entrada en acción de la “química verde”. Surge como respuesta a una creciente concienciación de la ciudadanía occidental acerca de los problemas medioambientales derivados de la industria química, y el consiguiente traslado de estas preocupaciones a la política, que toma medidas al respecto. A base de cumbres internacionales y legislaciones que incorporan medidas contra la contaminación química, se ha ido acotando a lo largo de los años el margen de actuación de las empresas a la hora de producir, tratar y comercializar los productos tóxicos. También hay que reconocer el importante papel que ha jugado la iniciativa voluntaria de muchas empresas (un buen ejemplo es Responsible Care Initiative).

Paul Anastas (por entonces trabajador en la EPA) creó el 1991 el término “química verde”, y lo ha dotado de la popularidad de que goza hoy este término. En su obra más importante, Green Chemistry: Theory and Practice, (publicada junto a John C Warner) define a la química verde como “el aprovechamiento de una serie de principios que reducen o evitan la utilización o la generación de sustancias peligrosas en el diseño, la fabricación y la aplicación de productos químicos”. En este libro se recogen de forma sistemática todas aquellas medidas a las que debería atender la industria química para evitar desastres como los comentados arriba y ser en general más amigable con el medioambiente. Se proponen además 12 principios, conocidos como los “12 principios de la química verde”, que a partir de aquel momento irían ya siempre asociados a las palabras “química verde”, y que actualmente son entendidos como las reglas de oro para la industria química ecológica.

  1. Prevención: es mejor prevenir la contaminación que tratar posteriormente los resíduos.
  2. Rendimiento atómico: los métodos sintéticos deben ser diseñados para maximizar la incorporación al producto final de todas las sustancias usadas en el proceso.
  3. Procesos sintéticos de reducida peligrosidad: siempre que sea posible, los métodos sintéticos deben utilizar y generar sustanticas que tengan la menor toxicidad posible para humanos y medio ambiente.
  4. Diseño de productos químicos inocuos: los productos químicos han de ser diseñados de manera que cumplan su funcionalidad y sean eficientes, a la vez que se minimiza su toxicidad.
  5. Disolventes y sustancias auxiliares inocuos: cuando sea posible hay que evitar o minimizar el uso de sustancias auxiliares (p. ej. disolventes, agentes de separación…), y cuando no lo sea deberán ser inocuos.
  6. Diseño energético eficiente: los requerimientos energéticos de un proceso químico deben ser evaluados de acuerdo a su impacto económico y medioambiental y minimizados. Si es posible, los procesos sintéticos deben ser llevados a cabo a presión y temperatura ambientes.
  7. Uso de materias primeras y recursos naturales renovables: las materias primeras y recursos naturales usados deben ser renovables siempre que sea técnica y económicamente viable.
  8. Reducción de subproductos: siempre que sea posible hay que optar por síntesis lo más directas posibles, ya que cada paso adicional produce más subproductos.
  9. Catálisis: los reactivos catalíticos deben ser lo más selectivos posible y utilizados en lugar de los reactivos estequiométricos.
  10. Diseño de productos degradables: los productos químicos deben ser diseñados de manera que al final de su vida útil no persistan en el medio ambiente y que puedan ser descompuestos en productos inocuos.
  11. Análisis en tiempo real para la prevención de la polución: se han de desarrollar métodos analíticos para monitorizar y controlar en tiempo real y de forma interna al proceso la formación de posibles productos tóxicos.
  12. Química inherentemente segura para prevenir accidentes: las sustancias y la forma en que son usadas en un proceso químico deben ser elegidas con el objetivo de minimizar el riesgo potencial de accidentes químicos, incluyendo fugas, explosiones y  fuego.

En muchos casos, sobre todo en la industria farmacéutica (donde hay un margen de aumento del rendimiento atómico* grande, ya que 1 kg de medicamento normalmente produce de 25 a 100 kg de resíduos), adoptar estas medidas se traduce en un beneficio económico. Pero en otros casos, como por ejemplo en la industria química de los productos a gran escala, ser verde no siempre es más económico, debido a que los procesos ya están  muy optimizados.

Uno de los principales problemas a solucionar es el uso de disolventes orgánicos volátiles (VOC’s), utilitzados como medio de reacción. Dos alternativas viables para sustituirlos como disolventes para reacciones tanto orgánicas como inorgánicas son, en primer lugar, el uso de dióxido de carbono u otras sustancias en estado supercrítico (esto es, un estado de la materia que se consigue a altas temperaturas y presiones, en las cuales la sustancia en cuestión muestra propiedades tanto de gas como de líquido); y en segundo lugar el uso de líquidos iónicos: sales líquidas a temperaturas moderadas e incluso en condiciones ambiente. Alguien observador dirá que el uso de sustancias supercríticas entra en contradicción con el punto 6 de los 12 principios de la química verde. Es cierto, pero habría que ver en cada caso si compensa o no desde un punto de vista medioambiental hacer uso de un disolvente supercrítico; probablemente salga a cuenta si es para sustituir un VOC.

En definitiva, la química verde surge como un nuevo campo de la química totalmente transversal a los demás, es decir cada campo de la química (orgánica, inorgánica…) tiene mucho trabajo por delante para aplicar los 12 principios y desarrollar nuevas rutas sintéticas y nueva instrumentación que reduzcan el impacto ambiental de sus respectivas actividades. No debemos confundir la química verde con un movimiento social; si bien existe el movimiento ecologista (que dispone de sus partidos políticos), como se acaba de decir la química verde es un reciente campo de la química que cada vez cuenta con más soporte por parte de la bibliografía y de la literatura, y que cada vez está más institucionalizado. Hay que añadir también que la química verde no es un campo de trabajo exclusivo para los químicos, sino que es altamente multidisciplinario, al necesitar la ayuda de ingenieros químicos, ingenieros de procesos industriales, ambientólogos, etc.

Para redactar esta entrada he extraído información de una conferencia sobre química verde pronunciada por Jordi Bartrolí Molins en la Universidad Autónoma de Barcelona y del artículo SANDERSON, KATHARINE. It’s not easy being green. Nature, 6 de enero de 2011, vol. 469.

*El rendimiento atómico, también llamado “factor E”, se define como [(peso de los productos deseados)/(peso de todos los productos)]. Es el tanto por uno de producto no deseado; si multiplicamos por 100 obtenomos el porcentaje.

Publicado en Química general, Química verde | Deja un comentario

Entendiendo el principio de incertidumbre de Heisenberg (y II)

Se explicó en la anterior entrada el principio de incertidumbre de Heisenberg basándonos en la interpretación ondulatoria de la materia. En esta entrada derivaremos la relación de indeterminación, para más adelante demostrarla.

Derivación

Quisiera aclarar antes que nada que posiblemente hay más formas de derivar el principio de incertidumbre; la presentada aquí me ha gustado por su sencillez y por ser muy intuitiva.

Dicho esto, empecemos por considerar el postulado de Bohr de la cuantificación del momento angular de la órbita de un electrón. Bohr postuló que no todas las órbitas de un electrón alrededor del núcleo son permitidas. El momento angular L viene dado por

L = r m v

Donde r es el radio de la órbita respecto al núcleo, m es la masa del electrón y v su velocidad.

Y aquí entra de nuevo en juego la dualidad onda-partícula de de Broglie, ya que en todo momento la longitud de onda del electrón debe ajustarse a su órbita para evitar que interfiera con sigo mismo, tal y como podemos ver en la siguiente imagen.

Por lo tanto, la circunferencia de radio r que describe a la órbita debe ser igual a un número entero n de longitudes de onda λ:

2{\pi} r=n {\lambda}

por de Broglie  {\lambda}={\frac{h}{m v}}

y sustituyendo nos queda

2{\pi} r=n{\frac{h}{m v}}

Reordenando obtemos

r m v=n{\frac{h}{2{\pi}}}

Llegados a este punto, sabemos que

{\hbar}={\frac{h}{2{\pi}}}

p=m v   o, en forma de intervalo {\Delta p}=m {\Delta v}

Y si consideramos r como la distancia Δx y además tomamos n=1, todo junto nos da

{\Delta x}{\Delta p}= {\hbar }

Que es la expresión del principio de incertidumbre, a la cual hemos llegado en pocos pasos partiendo del postulado de Bohr, usando la dualidad onda-partícula de de Broglie y efectuando algunas operaciones básicas.

Demostración

La demostración del principio de incertidumbre no es tan trivial, ya que hace falta saber un poco de álgebra de operadores. Aquí no entraremos en detalle, y se demostrará de la forma más “austera” posible.

Uno de los postulados de la mecánica cuántica es que toda magnitud física observable de un sistema cuántico corresponde matemáticamente a un operador, del cual medimos su valor propio al realizar el experimento. Un valor propio es un valor que podemos obtener al aplicar un operador a una función.

Un operador es un ente matemático que transforma una función en otra. Un ejemplo de operador de uso común sería el operador derivada {\frac{d}{dx}} , aunque la mayoría de veces lo apliquemos sin enternderlo como tal.

Consideremos, por ejemplo, el operador {\hat{A}} aplicado a la función f. El operador puede cambiar a la función

{\hat{A}} f=g        f{\neq}g

O puede dar como resultado la misma función multiplicada por un escalar a

{\hat{A}}f=af

En cuyo caso decimos que f es función propia del operador {\hat{A}} y que a es el valor propio de esta función.

De hecho, cuando resolvemos la ecuación de Schrödinger independiente del tiempo, lo que hacemos es aplicar el operador Hamiltoniano {\hat{H}} (que engloba a la energía cinética y potencial del sistema) a la función de onda Ψ, de manera que obtenemos la misma función de onda multiplicada por el valor propio, que es la energía del sistema: {\hat{H}}{\psi}=E{\psi}

Pero eso sería objeto de otra entrada. Continuando con el principio de incertidumbre, nos hace falta para demostrarlo una cosa más: el conmuntador de dos operadores. Para los operadores {\hat{A}}{\hat{B}} se representaría de la siguiente forma:

[{\hat{A}},{\hat{B}}]

el cunmutador de dos operadores es a la vez otro operador, y se calcula como sigue:

[{\hat{A}},{\hat{B}}]={\hat{A}}{\hat{B}}-{\hat{B}}{\hat{A}}

Si [{\hat{A}},{\hat{B}}] da como resultado otro operador,  {\hat{A}}  y  {\hat{B}}  no conmutan ya que {\hat{A}}{\hat{B}}{\neq}{\hat{B}}{\hat{A}}

En cambio, si  [{\hat{A}},{\hat{B}}]={\hat{0}} , entonces   {\hat{A}}  y   {\hat{B}}  sí que conmutan debido a que {\hat{A}}{\hat{B}}={\hat{B}}{\hat{A}}

Veamos un ejemplo: consideremos los operadores posición x y derivada {\frac{d}{dx}}. Apliquemos su conmutador a una función f(x):

[x,{\frac{d}{dx}}]f(x)=x{\frac{d}{dx}}f(x)-{\frac{d}{dx}}xf(x)=xf'(x)-(1f(x)+f'(x)x)=xf'(x)-1f(x)-xf'(x)=-1f(x)=-f(x)

Como vemos, los operadores  posición y derivada no conmutan, ya que obtenemos -1 como resultado.

Tal y como se ha dicho antes, según uno de los postulados de la mecánica cuántica, cuando realizamos una medición a un sistema cuántico, lo que medimos es un valor propio. Si ahora generalizamos la expresión del principio de incertidumbre como sigue

{\Delta}a{\Delta}b{\geq}{\frac{1}{2}}{\lvert}{\langle}[{\hat{A}},{\hat{B}}]{\rangle}{\rvert}     donde Δa y Δb son las desviaciones de las magnitudes asociadas a                                            los operadores A y B,

Vemos que para poder conocer exactamente la posición y el momento lineal (es decir, Δa y Δb), los operadores A y B deberían conmutar. Pero esto no sucede, ya que antes hemos visto que el operador posición y derivada no cunmutan, y debido a que éste último interviene en el operador momento lineal ({p_x}=-i{\hbar}{\frac{\partial}{{\partial}x}}), tampoco conmutan posición y momento lineal. Por lo tanto, debido a esto, no podemos conocer simultáneamente y con exactitud arbitraria la posición y el momento de una partícula.

Publicado en Física, Química cuántica | 2 comentarios

Entendiendo el principio de incertidumbre de Heisenberg (I)

En ciencias, sobre todo en física moderna, a veces nos encontramos con ciertos teoremas o principios que no podemos entender en el sentido que entendemos la física clásica; esto es, en términos del mundo macroscópico que nos rodea.

Entre estos principios, uno de los que más destaca es el principio de incertidumbre de Heisenberg o relación de indeterminación de Heisenberg. Una reacción muy común del estudiante expuesto por primera vez al principio de incertidumbre (me incluyo yo también) es la de incredulidad o incluso negación.

Según la Wikipedia, el principio de incertidumbre afirma que “no se puede determinar, en términos de la física clásica, simultáneamente y con precisión arbitraria, ciertos pares de variables físicas, como son, por ejemplo, la posición y el momento lineal de un objeto dado. Matemáticamente, esto vendría dado por la siguiente inecuación:

{\Delta x} {\Delta p} {\geq} {\hbar}

Donde {\hbar} = {\frac{h}{2 \pi}}

y  {h}  es la constante de Planck

[Nota: en la mayoría de libros y páginas web el producto ΔpΔx es igual a {\frac{\hbar}{2}} en lugar de {\hbar} , esto es debido a definiciones más concretas y estrictas, en las cuales no entraremos]

Vemos que en términos matemáticos la fórmula es bastante simple. Si queremos simplificarla aún más, podemos sustituir el signo de la desigualdad por el de una igualdad

{\Delta x} {\Delta p} = {\hbar}

Entonces, la ecuación pasaría a describir aquel caso particular (e ideal) en el que medimos con precisión máxima el momento y la posición. La ecuación nos dice que al medir la posición en una dirección arbitraria x siempre habrá una incertidumbre Δx, y que si simultáneamente medimos el momento lineal o cantidad de movimiento de la componente x también habrá una incertidumbre Δp; y todo ello cumpliendo la regla que nos dice la ecuación: que el producto de Δx y Δp ha de ser igual (o superior) a  {\hbar} .

En la definición de la Wikipedia se habla de “ciertos pares de variables físicas”. Otro par de variables en el que es posible expresar el principio de incertidumbre es energía ΔE i tiempo Δt.

En todo caso, para comprender el principio de incertidumbre es mucho mejor hacerlo entendiendo la partícula como onda en lugar de como corpúsculo. Esto es posible gracias a la dualidad onda-partícula de de Broglie, que dice que a nivel elemental, la materia exhibe un comportamiento tanto de onda como de partícula. Esto viene dado por la ecuación

{\lambda}={\frac {h}{p}}={\frac{h}{m v}}

donde {h}  es la constante de Planck y λ es la longitud de onda asociada a aquella partícula.

Pues bien, centrémonos por ejemplo en un  electrón. Según la dualidad onda-partícula de de Broglie, podemos comprender al electrón como onda o como partícula. Si lo hacemos como onda, usaremos las herramientas de las ondas para analizarlo.

Lo primero a tener en cuenta es que a diferencia de una masa o carga puntual, una onda no ocupa un solo punto del espacio, sino que se extiende más o menos a lo largo de éste. Su momento lineal viene dado por la anterior fórmula

{p}={\frac{h}{\lambda}}

Como vemos, el momento lineal es inversamente proporcional a la longitud de onda. Teniendo en cuenta esta fórmula además de la fórmula del principio de incertidumbre, vemos que para tener una longitud de onda exacta, y por lo tanto un momento lineal totalmente definido, la onda tiene que ser infinita en ambos extremos, con lo cual su posición es infinitamente indeterminada. Así pues,  Δp=0  <=>  Δx=∞.

                        Ondas periódicas deslocalizadas con longitud de onda definida

Por otro lado, observamos que la posición será más definida cuanto más corta sea la onda, pero eso implica que tenemos que “cortar” la onda por los extremos, y cuando lo hacemos, “distorsionamos” la longitud de onda, de manera que perdemos precisión en el momento lineal. La onda resultante puede ser entendida como una superposición de varias ondas periódicas infinitas.

Onda resultante localizada sin longitud de onda definida

Por lo tanto, vemos que una disminución en la incertidumbre de la posición implica un aumento en la incertidumbre del momento, y viceversa. Cuantitativamente, esta relación viene dada por la fórmula del principio de incertidumbre, que hemos visto antes.

Para acabar, y antes de la próxima entrada (en la que derivaremos y demostraremos mediante operadores el principio de incertidumbre), me gustaría citar este fragmento de las célebres Feynman Lectures on Physics:

«A veces la gente dice que la mecánica cuántica está toda mal. Cuando la partícula llega desde la izquierda, su momento vertical es cero. Y ahora que ha atravesado la rendija, su posición es conocida. Es cierto que podemos recibir una partícula, y en su llegada determinar su posición y el momento que debería haber tenido para llegar hasta ahí. Esto es verdad. Pero no es a lo que la relación de incerteza hace referencia. La ecuación se refiere a la predictabilidad de una situación, no consideraciones acerca del pasado. No está bien decir “sé cual era el momento antes de que pasara a través de la rendija, y ahora conozco su posición”, ya que ahora nuestro conocimiento del momento se ha perdido. El hecho de pasar a través de la rendija ya no nos permite predecir el momento vertical. Estamos hablando de una teoría predictiva, no de medidas después de que haya ocurrido. Así que tenemos que hablar de lo que podemos predecir.»

Publicado en Física, Química cuántica | Deja un comentario

Ciencia y Política

La conferencia de Eintein tuvo lugar en una gran sala a la cual se podía acceder, como en un teatro, desde entradas situadas en los lados. Cuando quise entrar, un jóven -que más tarde averigüé que era asistente de un conocido profesor de física de una universidad del sur de Alemania- me puso en la mano un llamativo panfleto rojo en el cual se alertaba sobre Einstein y su teoría de la relatividad. Se trataba, según se podía leer, sobre vagas especulaciones indecentemente sacadas de contexto provenientes de periódicos judíos . Al principio pensé que el panfleto sería la obra de algún loco más de los que aparecen en estas ocasiones. Pero cuando se me informó que realmente el por sus conocidos trabajos experimentales valorado físico, del cual Sommerfeld nos habló en varias ocasiones en sus seminarios, era el responsable del panfleto, se rompió en pedazos una de mis esperanzas más importantes. Llegué a estar tan convencido de que al menos la ciencia se podría mantener al margen de la disputa de las opiniones políticas. […] Los medios usados por este físico en contra de la teoría de la relatividad eran tan malos y parciales, que este enemigo ya no confiaba en poder desmontar la teoría de la relatividad mediante argumentos científicos.

WERNER HEISENBERG. Der Teil und das Ganze

Publicado en Historia/Filosofía de la Ciencia, Literatura | Deja un comentario

IV Carnaval de la Química: Complejos de coordinación, química organometálica y sus implicaciones en catálisis

Esta entrada participa en el IV Carnaval de la Química, hospedado en esta edición por el blog “Los productos naturales ¡Vaya timo!”

Hasta hace unos pocos siglos, podíamos incluir todo el conocimiento científico del mundo en un solo tomo que podría llevar como título “Atlas universal de la ciencia”, por decir algo. Pero hoy en día cada ciencia es un mundo para sí misma, con múltiples ramas y subramas y con temas que pasan a estar de moda y otros que dejan de estarlo.

Y si en física el tema que está actualmente de moda -y con “estar de moda” me refiero a que es donde se están poniendo más esfuerzos y que goza de mayor repercusión dentro de esta ciencia- es sin duda alguna la física de partículas, su homólogo químico lo encontramos en la química organometálica, campo premiado dos veces en esta última década con el Premio Nobel de química: el 2010 y el 2005.

Lo que primero llama la atención de la química organometálica es que no responde al clásico criterio de clasificación tan arraigado en esta ciencia: química orgánica, inorgánica, física y analítica. Aunque muchos químicos la ven más cerca de la inorgánica que de la orgánica, lo cierto es que ocurre algo parecido a los nuevos avances en el carbono (nanotubos, grafeno…), y es que no es posible acabar de empaquetarlos según este criterio. Más adelante veremos el porqué de esto.

Para empezar, tenemos que definir el “complejo de coordinación” o “ion complejo”: es una especie química consistente en un átomo metálico -que actúa en la mayoría de casos como ácido de Lewis (aceptor de electrones)- y que está rodeado de una o más moléculas que normalmente actúan de base de Lewis (donadores de electrones) y que se llaman “ligandos”. Si un ligando está enlazado al metal por un solo punto, diremos que es monodentado, y si lo está por más de uno, será polidentado. Un hecho más o menos característico de los complejos de coordinación es que forman estructuras muy simétricas y realmente elegantes:

          

Pues bien, estrictamente hablamos de química organometálica cuando se dan enlaces metal-carbono de carácter covalente; y esto ocurre en el seno de un complejo de coordinación. En realidad, esta definición es muy restrictiva, motivo por el cual no sería descabellado incluir en ella otros elementos como hidrógeno, nitrógeno u oxígeno.

La rama de la química que se ocupa de los compuestos de carbono es sin duda la orgánica, pero el metal que coordina a los ligandos que contienen carbono es tarea de la química inorgánica. Si además añadimos a esto el importante papel de los compuestos organometálicos en síntesis orgánica, queda justificada la ambivalencia de este este campo de la química.

Más allá del interés teórico y desinteresado que supone el estudio de compuestos de coordinación, pasando por sus implicaciones en bioquímica (por ejemplo en el grupo hemo de la hemoglobina, que podemos ver en la imagen que abre este post), y además (aunque estrechamente relacionado) de la síntesis orgánica antes mencionada, si la química organometálica goza de su actual y prolongada relevancia es también por las enormes posibilidades que ofrece en catálisis.

Nos centraremos aquí en la catálisis homogénea (otros tipos serían p. ej. heterogénea o fotocatálisis), que es aquella en la que productos, reactivos y catalizador (habitualmente un metal de transición) se encuentran disueltos en fase líquida. A pesar de ser muy efectiva, ya que no depende de la superfície del catalizador como en la heterogénea, presenta alguna desventaja como por ejemplo la dificultad de recuperar el catalizador, motivo por el cual la poderosa industria farmacéutica no tiene demasiado interés en el uso de reacciones catalizadas por metales de transición debido al riesgo de contaminación del producto por parte de los metales.

Aun así la catálisis homogénea puede ser de gran interés para otras industrias en las que esto no juega un papel importante, ya que presenta una serie de ventajas como el hecho que un proceso catalizado puede llegar a reducir considerablemente los costes respecto uno que no lo está debido a que se aumenta la velocidad de la reacción (como consecuencia de una disminución de la energía de activación) y por lo tanto el rendimiento de ésta por unidad de tiempo es superior. Otro motivo, este más ecológico, es que el catalizador no se consume en la reacción y por lo tanto se puede reutilizar repetidas veces, teniendo en cuenta que su vida es limitada.

¿Cómo funcionan los mecanismos catalíticos de los metales de transición? Bueno, explicado de forma muy cualitativa, por un lado tenemos que las constantes de formación de los complejos de coordinación acostumbran a ser muy elevadas (estamos hablando de varios órdenes de magnitud), lo cual significa que termodinámicamente su formación es muy favorable y que procesos que impliquen compuestos tan estables y poco reactivos como el nitrógeno molecular (N2) podrán ser catalizados. Otro aspecto sería que, para que tenga lugar una reacción, los reactivos, a nivel atómico, deben coincidir en el espacio y en el tiempo; y si son tan favorables a agregarse alrededor del metal de transición, es más probable que esto se de.

Para acabar, resaltar la importancia de la investigación desinteresada, tal y como la empezó Alfred Werner en complejos metálicos, sin probablemente sospechar que algún día acabaría teniendo implicaciones tan grandes en química, desde investigación puntera, hasta química verde, pasando por vastos procesos industriales.

Publicado en Química organometálica | Deja un comentario

Algunas consideraciones y reflexiones elementales sobre termodinámica y física estadística

La termodinámica ha demostrado ser una herramienta tremendamente útil para el estudio macroscópico de todo tipo de procesos físicos y químicos, además de haber introducido y definido conceptos clave como entropía o energía interna. Gracias a ella los químicos pueden predecir si una reacción será o no espontánea bajo unas condiciones determinadas (a pesar de que, como nos vienen recordando desde bachillerato, no nos dice nada acerca de la cinética).

En cierto modo, el mérito de la termodinámica consiste en que nos da mucha información y nos permite predecir muchas variables de un sistema haciendo uso de funciones de estado y sin atender a la dinámica interna del sistema a nivel microscópico: la termodinámica clásica no requiere de los átomos para funcionar. De hecho, yo creo que hubiera sido posible desarrollar parte de la teoría en la antigua Grecia si se hubieran llegado a crear ciertos instrumentos de medida (de temperatura, de presión…); ya que bien se llegó a la máquina de vapor (la Eolípila de Herón).

Sin embrago, hubo que esperar a principios del siglo XIX para que Carnot fundara la termodinámica, que más adelante sería desarrollada por otros científicos (Clausius, Kelvin…). Pero todo y producirse progresos, había una barrera (entre otras muchas, pero esta es la más evidente) que la termodinámica no podía superar, y es el otro lado de la moneda de la ventaja antes comentada: al ser puramente empírica, pierde capacidad explicativa, es decir podemos describir matemáticamente lo que pasa en el sistema pero no podemos deducirlo o entenderlo a nivel microscópico.

Fue Boltzmann quien 80 años después del nacimiento de la termodinámica puso la pieza que faltaba en nuestro puzle con la famosa fórmula grabada en su lápida: S=k·log(W), y fundó de esta manera la mecánica estadística. Esta fórmula, que nos permite calcular la entropía de un sistema, sí necesita suponer que la materia es discreta para poder ser aplicada.

Quisiera centrarme en esta entrada en la aparente contradicción entre el enfoque macroscópico y el microscópico a la hora de entender la entropía, y cómo la estadística concilia ambos puntos de vista.

Por un lado, macroscópicamente podemos entender la entropía mediante la segunda ley de la termodinámica, enunciada por Clausius como sigue: “no es posible ningún proceso cuyo único resultado sea la extracción de calor de un recipiente a una cierta temperatura y la absorción de una cantidad igual de calor por un recipiente a temperatura más elevada”. De esta definición podemos extraer dos elementos clave: uno es la direccionalidad del proceso de transferencia de calor (del cuerpo caliente al más frío pero no viceversa); el otro es el relativo al rendimiento del proceso, que nunca llegará a ser del 100% debido a que una parte del calor se liberará al ambiente y hará aumentar la entropía total. De aquí que la entropía del universo aumente siempre con cada proceso que se da en él.

Por otro lado, el enfoque microscópico nos lleva a la fórmula antes vista, S=k·log(W), donde k es la constante de Boltzmann y W es el número de maneras (microestados) en que podemos distribuir los átomos o moléculas de un sistema para obtener el mismo valor de energía. De forma intuitiva es evidente que cuanto más desordenado esté un sistema, más microestados podrá contener, y por tanto mayor será su entropía.

Imaginemos ahora un sistema ideal de paredes adiabáticas parecido al de la imagen que acompaña este post: dos recipientes, uno contiene gas a una cierta presión y en el otro hay el vacío, separados por una pared que podemos retirar de manera que quede un solo recipiente con el doble de volumen. Si retiramos la pared, macroscópicamente observamos que el gas se expande y ocupa de nuevo todo el volumen, proceso que lleva asociado un aumento de entropía, motivo por el cual es espontáneo (ya que la energía interna del gas no varía). Pero si fuéramos capaces de observar el mismo proceso a nivel microscópico, lo único que veríamos sería sencillamente partículas de gas que se mueven al azar y que colisionan unas contra otras y contra las paredes, siendo a este nivel innecesarias consideraciones entrópicas.

Y es en este punto donde surge una aparente contradicción, ya que para el mismo proceso que se da en el mismo sistema observamos que desde el punto de vista macroscópico hay una direccionalidad en el tiempo, y en cambio microscópicamente esta direccionalidad no se da. Es decir, si grabáramos con una cámara cómo se expande el gas al retirar la pered, y luego viéramos el vídeo al revés, claramente habría algo que no cuadra, cualquier persona reconocería que un gas que ocupa un volumen y de repente pasa a ocupar la mitad del volumen es algo que no sucede de forma espontánea,  y es por eso que decimos que la entropía tiene una direccionalidad en el tiempo, y es que aumenta a medida que éste pasa. Esto, en cambio, es algo que no se da si observamos el mismo proceso a nivel microscópico; si grabáramos las colisiones de las partículas, no habría ningún problema en ver esas mismas colisiones al revés, ambos casos serían perfectamente válidos, y es debido a esto que la dinámica de las partículas a nivel microscópico no tiene una direccionalidad en el tiempo asociada.

¿Cómo puede ser, entonces, que un mismo sistema, que está compuesto por partículas, evolucione de una manera concreta en el tiempo observado como conjunto, y en cambio si observamos las partículas que lo componen a nivel microscópico esa evolución en el tiempo no exista?

Bueno, la solución a este dilema nos la da la estadística, y es que resulta que en la expansión de un gas, normalmente tratamos con tal cantidad de partículas, que los promedios estadísticos juegan un papel clave en el comportamiento del conjunto de ellas. No hay ninguna incompatibilidad entre ambos enfoques debido a que el comportamiento al azar de las partículas estadística y necesariamente nos lleva al fenómeno observado en el mundo macroscópico. Visto así, la cuestión de porqué la entropía tiene una direccionalidad en el tiempo parece reducirse a porqué las leyes físicas que actúan a nivel microscópico son de una manera y no de otra y al hecho que en el mundo real tratamos con ingentes cantidades de materia.

Además, si en lugar de tantas partículas, tuviéramos un sistema con sólo cinco de ellas (p. ej. cinco átomos de Xe), la probabilidad de que en un momento dado todos los átomos ocuparan la mitad del volumen en el que están contenidas sería relativamente alta, y entonces los promedios estadísticos ya no serían tan determinantes y perdería sentido aplicar las consideraciones propias del mundo macroscópico.

Para acabar, citar una frase pronunciada por un buen profesor de química física: “lo que ocurre ocurre porqué es lo más probable que ocurra”.

Publicado en Ciencia general | Deja un comentario

Más allá del enlace

Hace algunos meses, con motivo del año internacional de la química, vino a la facultad a dar una conferencia Antonio M. Echavarren, investigador en el ICIQ. La conferencia trataba sobre reacciones catalizadas por oro, un tema no demasiado ameno a decir verdad.

En todo caso, Echavarren también hizo algunas reflexiones interesantes a lo largo de la  conferencia, que para bien o para mal es lo que uno mejor recuerda. En concreto, me llamó la atención aquella en la que decía (no con estas palabras) que el enlace químico, para muchos el concepto sobre el cual se sustenta toda la química, es un concepto que no está 100% definido, no está claro qué tipo de interacciones entre átomos se pueden considerar o no enlace químico. Lo que para unos puede parecer un talón de Aquiles, Echavarren lo veía como un signo de vitalidad, una señal de que la química, la “ciencia de la complejidad”, está más viva que nunca.

También con motivo del año internacional de la química, Nature publicó en enero (vol. 469) un genial artículo sobre el enlace químico titulado “Beyond the bond”, escrito por Philip Ball. Las ideas que transmite el artículo no están demasiado alejadas, en esencia, de las expuestas en la anécdota introductoria.

[Nota: lo que escribo a continuación está extraído del artículo citado y pretende ser una breve síntesis de éste]

Empieza Ball por citarnos una frase del químico teórico Charles Coulson: “Un enlace químico no es algo real, no existe: nadie lo ha llegado a ver. Es un producto de nuestra propia imaginación”.

Ésta es una frase ciertamente incómoda para un químico, y puede poner en jaque a una ciencia plagada de formalismos ficticios entre los cuales se encuentra el enlace como el más importante (otros serían electronegatividad, estado de oxidación, acidez…).

Si el concepto de enlace químico históricamente ya ha sido polémico, resulta que ahora lo es más que nunca debido a nuevas técnicas experimentales (espectroscopia, RMN…) y progresos teóricos que ofrecen nuevas formas de estudiarlo. Un ejemplo sería el puente de hidrógeno, cuya visión tradicional se ha visto alterada a raíz de nuevas evidencias experimentales.

Una complicación adicional en el estudio del enlace es que los datos experimentales recientes apuntan a una realidad dinámica muy alejada de la visión estática y de estructura definida que las teorías actuales sostienen. Parece ser que lo que se mide en un enlace depende en gran medida del momento en que es medido.

A raíz de esto, surge el dilema de si la existencia del enlace depende de la manera en que se prueba, o más bien hay que adoptar un criterio absoluto. También surge la cuestión de si hay que seguir usando reglas de oro a priori funcionales, o todo puede reducirse a física cuántica. El hecho que nos decantemos hacia una opción u otra en estas cuestiones, tiene consecuencias reales en cómo entendemos y resolvemos la química. En definitiva, estamos lejos de entender de forma exhaustiva la manera en que las las leyes de la física cuántica dan lugar a enlaces entre átomos.

La comprensión del enlace químico ha ido variando a lo largo del tiempo: desde la concepción electrostática/iónica (que no explicaba moléculas como la de hidrógeno, con ambos átomos neutros); pasando por la teoría de Lewis, en la cual los átomos comparten electrones; hasta las más actuales y en cierto modo “rivales” teoría del enlace de valencia (Pauling) y teoría de los orbitales moleculares (Mulliken), si bien parece que esta última se desenvuelve mejor en la mayoría de casos.

En realidad, ambas teorías, al igual que el método Hartree-Fock, son aproximaciones consistentes en expresar una función de onda resultante como combinación de las funciones de onda de los electrones individuales, y son aproximaciones debido a que no incluyen la influencia que ejercen los electrones mútuamente entre sí.

Además de esto, tampoco está claro cuando definir dos átomos como enlazados y cuando no. Según Pauling, un grupo de átomos debe ser considerado como enlazado cuando “es conveniente para el químico considerarlo como especie molecular independiente”. Otro criterio (éste de Coulson) es que un grupo de átomos está enlazado cuando su energía es inferior a la que tendrían separados por una distancia infinita. Aún así, ambos criterios no dejan de ser ambiguos si por ejemplo entran en juego las fuerzas de van der Waals.

Por otra parte, considerar átomos como enlazados o no puede depender del contexto si por ejemplo son forzados a acercarse unos a otros por los átomos que les rodean, además de la cuestión de carácter arbitrario de decidir a qué átomo “pertenece” cada electrón.

Podríamos hacer una distinción para diferenciar dos átomos enlazados de no-enlazados en función de cómo varía la fuerza entre ellos en relación a la distancia. Obviamente, se produce un decaimiento del enlace covalente al aumentar la distancia, al igual que lo hace la atracción de van der Waals. Pero este criterio tampoco escapa de la imprecisión si tenemos en cuenta la aurofilicidad, fenómeno en el cual complejos de oro en disolución tienden a agregarse mediante atracciones de la naturaleza de van der Waals, sólo que más fuertes debido a efectos relativistas (núcleo pesado). Químicamente tendría sentido considerar la aurofilicidad como enlace “auténtico”, si bien al precio de renunciar a otro criterio para distinguir enlaces químicos “verdaderos”.

En gran medida, el aspecto clave del enlace parece recaer en la dinámica, desde la cual incluso moléculas simples pueden comportarse de manera compleja. Esta complejidad hasta ahora no se había tenido en cuenta, en parte debido a dificultades experimentales. Pero gracias a los láseres de pulso ultracorto podemos interactuar con los átomos y moléculas obteniendo información de la evolución dinámica del sistema estudiado, información que dependerá de cómo aplicamos las técnicas de medida. Esto nos proporciona una visión en la cual una reacción química ya no es la formación y degradación de enlaces, sino la evolución de los átomos en una curva de energía potencial.

Así pues, tiene sentido hablar de un estado de enlace instantáneo para una determinada configuración del núcleo. Asumiendo que los electrones, mucho más ligeros que el núcleo, se ajustan al instante para cada cambio en las posiciones nucleares, obtenemos la aproximación de Born-Oppenheimer. Aún así, hay casos en los que la aproximación falla: sistemas de estado sólido (p. ej. superconductividad) o incluso moléculas (particularmente en el campo de la fotoquímica); casos en que los grados de libertad molecular pueden volverse interdependientes de forma extraña.

Debido a todo este nuevo control dinámico de los estados cuánticos, se está alcanzando una nueva visión en química que reemplaza la imagen estática de moléculas con parámetros fijos. A pesar de todo, esta visión no debe implicar un abandono de las ideas antiguas de enlace químico, sino un enfoque de estos enlaces como grados de atracción que aumentan y disminuyen.

Algunas partes de la ciencia pueden ser exhaustivamente explicadas por una sola teoría, pero esto es la excepción. Normalmente tenemos varias teorías, algunas excluyentes, otras que se solapan, otras complementarias. Y la elección de nuestro marco teórico viene determinado, más que por consistencia experimental, por razones subjetivas como simplicidad, utilidad o elegancia.

Tal y como dice Roald Hoffmann, “toda definición rigurosa del enlace está destinada a ser empobrecedora”.

Publicado en Química general | Deja un comentario

Nucleótidos, nucleósidos y estructura del ADN

One of the most amazing and interesting aspects of the world is the existence of human beings and other living organisms who are able to have progeny, to whom they transmit many of their own characteristics.

Linus Pauling

En la extensa y convulsa historia de la ciencia, pocas historias son tan famosas como la carrera por el descubrimiento de la estructura secundaria del ADN, a pesar de que su composición química y el hecho que es la molécula responsable de almacenar la información genética ya se conocían con anterioridad.

Hoy en día, a pesar de disponer de ingentes cantidades de información sobre este asunto de gran calidad y de manera gratuita, esta información a menudo está dispersa, y difiere en algunos aspectos. Por ello, y como primera entrada de este blog, no está de más hacer una pequeña recopilación en la cual se expliquen de forma clara los fundamentos moleculares del ADN.

En primer lugar, veamos lo que es un nucleósido. Para ello, antes debemos introducir dos molećulas: ribosa y desoxirribosa. Una ribosa es una pentosa (por lo tanto un monosacárido) con la siguiente estructura lineal (configuración de Fisher):

D-ribosa (la configuración L casi no se encuentra en la naturaleza)

Si la representamos mediante la proyección de Haworth (más cercana a la realidad para este tipo de moléculas, que adoptan mayoritariamente forma cíclica en disolución acuosa) obtenemos la siguiente estructura:

Siendo rigurosos, cabe decir que esta estrutura corresponde a la β-D-ribofuranosa, si bien, debido a que no se mencionarán en este escrito las demás formas isómericas de esta molécula (que no son de nuestro interés), nos referiremos a ella sencillamente como ribosa.

Por otro lado, la desoxirribosa es una ribosa a la que le falta un oxígeno en el carbono 2′:

Una vez aclarado esto, podemos ya definir el nucleósido. Un nucleósido no es más que una base nitrogenada unida covalentemente mediante un enlace glucosídico al carbono 1′ de la ribosa o desoxirribosa, en sustitución del grupo hidroxilo (OH). A pesar de que existen muchas bases nitrogenadas (muchas de ellas modificadas covalentemente p. ej. por metilación) , en este escrito nos centraremos en las más importantes, que son la adenina (A), guanina (G), timina (T), citosina (C) y uracilo (U).

A simple vista, podemos observar que la adenina y la guanina se distinguen de la timina, la citosina y el uracilo en el número de anillos. Mientras que las dos primeras están formadas por dos anillos heterocíclicos fusionados, las tres últimas sólo contienen uno. Éste es el motivo por el cual clasificamos al primer grupo como purinas y al segundo como primidinas. Fisiológicamente, las cuatro primeras son las propias del ADN, mientras que en el caso del ARN éste comparte todas a excepción de la timina, que es sustituida por uracilo.

Si ahora cogemos un nucleósido, y sustituimos el grupo hidroxilo del carbono 5′ por un grupo fosfato, obtenemos un nucleótido. Siendo rigurosos, el grupo fosfato no tiene que estar necesariamente unido a ese carbono, ya que el nucleósido puede esterificarse en cualquiera de sus grupos hidroxilo; tampoco tiene porqué haber sólo un grupo fosfato, ya que pueden encadenarse hasta tres (p. ej. en ATP). En la siguiente imagen podemos ver un nucleótido con adenina como base nitrogenada.

Ésta es (junto a las demás combinaciones de bases – C,G,T) la unidad básica o monómero del ADN, que mediante polimerización puede llegar a constituir moléculas de ADN de millones de bases. En cuanto al ARN, como ya se ha dicho antes, además de A, G y C, utiliza U en lugar de T. Otra diferencia que merece la pena resaltar es que mientras que la pentosa del ARN es una ribosa, en el ADN se trata de una desoxyrribosa, aunque esta información ya nos la proporciona el mismo nombre de las moléculas. Además, el ADN es una doble hélice con dos hebras complementarias, mientras que el ARN en la mayoría de casos forma una sola cadena simple.

Para acabar, mencionar dos procesos clave de la estructura del ADN:

– Polimerización de los nucleótidos

La polimerización de los nucleótidos se realiza mediante la creación de un enlace fosfodiéster entre el 3′-grupo hidroxilo y el 5′-grupo fosfato, formándose de esta forma lo que llamamos ácidos nucleicos. La energía para polimerizar se obtiene de la hidrólisis de los enlaces anhídricos de los grupos fosfato de los nucleótidos-trifosfato (ATP, CTP, GTP, TTP), que serán los mismos que formarán la molécula de ADN. Es decir, el nucleótido-trifosfato “quema” dos grupos fosfatos para formar un enlace fosfodiéster entre él y otro nucleótido, que pasan a formar parte de la cadena de ADN. Un punto importante es que, debido a que las moléculas de ADN tienen principio y fin (en otros organismo como p. ej. bacterias puede ser circular, es decir, cerrado), podemos distinguir dos lados diferenciados en función de si se trata de un extremo 3′ o 5′.

– Complementariedad de las bases nitrogenadas

Las dos hebras del ADN se mantienen unidas gracias a que las bases son complementarias, y a que se forman entre ellas puentes de hidrógeno. La complementariedad viene dada por A-T G-C, y A-U G-C en el caso del ARN. Las siguientes imágenes muestran los puentes de hidrógeno entre las bases:

Como podemos ver, el par de bases C-G presenta un puente de hidrógeno más que el par A-T. Debido a esto, la secuencia de bases puede influir en la estructura de la molécula. Otro aspecto que inluye en la estructura secundaria del ADN es la humedad realtiva.

Como útlimo apunte, es evidente que el ADN no se encuentra en el núcleo de las células en su forma lineal, sino que presenta una compactación tal que permite empaquetar unos 2 metros de ADN (humano) en un núcleo celular. Este empaquetamiento se debe al superenrollamiento.

Hay libros enteros dedicados a esto, por lo que todo lo comentado aquí no es más que una simple e introductoria visión transversal.

Publicado en Bioquímica | 2 comentarios