El Tamiz

(Julio/Agosto de 2014)

















Excepto donde se indique lo contrario, © 2014 Pedro Gómez-Esteban González.

pedro@eltamiz.com

http://eltamiz.com

El texto de este libro está publicado bajo una licencia Creative Commons Reconocimiento-No comercial-Sin obras derivadas 2.5 España. Usted es libre de copiar, distribuir y comunicar públicamente la obra bajo las condiciones siguientes:











Índice

Desde la mazmorra 1

Las cuatro fuerzas – La fuerza gravitatoria (III) 2

Premios Nobel – Física 1920 (Johannes Stark) 14

[Matemáticas I] Vectores 30











Desde la mazmorra









Este número es doble por una sencilla razón: como este año hemos estirado las vacaciones y apenas hemos estado en casa durante julio y agosto, no he podido escribir casi nada. Hubiera sido una tontería publicar una “compilación” de julio con un miserable artículo, y casi lo mismo con los dos de agosto.

De hecho sigue siendo un poco tonto compilar tres artículos en dos meses, pero sé que algunos obsesivo-compulsivos os tiraríais de las pestañas si en vuestra colección de epubs, o lo que sea, hay un hueco en julio y agosto. Lo sé bien porque a mí me pasaría exactamente lo mismo.

Así que completad vuestras colecciones a gusto y a disfrutar de la lectura, si es en buena compañía mejor, ¡que discutir sobre la lectura es a menudo mejor todavía que leer!

Las cuatro fuerzas – La fuerza gravitatoria (III)











Hace algún tiempo empezamos una nueva serie, Las cuatro fuerzas, en la que recorremos las cuatro fuerzas fundamentales de la Naturaleza –en la introducción verás a cuáles me refiero, y por qué cuatro–. Mi objetivo para cada una de ellas es explicar qué la hace especial, dónde aparece a nuestro alrededor, cómo descubrimos que existía y cómo ha evolucionado nuestro conocimiento sobre ella.

La primera de las cuatro que estamos atacando es la que primero descubrimos como tal: la gravedad. En los dos primeros artículos sobre ella hablamos acerca de nuestro conocimiento sobre la fuerza gravitatoria desde la Antigüedad hasta la llegada del gran Isaac Newton. Hoy continuaremos nuestro camino más allá del divino inglés, empezando por hablar sobre algo que el propio Newton nunca descubrió: el valor de la constante gravitatoria que él mismo postuló en su Ley de Gravitación Universal. Y, si no sabes de lo que estoy hablando, ¡empieza desde el principio!

Como vimos en la anterior entrega, el problema de determinar la constante de gravitación era simple: hacía falta utilizar al menos un cuerpo muy masivo –como la Tierra– cuya masa fuera conocida, o bien utilizar cuerpos de tamaños más modestos y ser capaces de medir fuerzas diminutas. En la época de Newton no conocíamos el valor de la masa de la Tierra ni ningún cuerpo celeste, y éramos incapaces de medir fuerzas muy pequeñas como las que puede ejercer una naranja sobre otra, de modo que no había manera de calcular el valor de la constante G.

Hizo falta esperar setenta años después de la muerte de Isaac Newton para que alguien midiese el valor de su constante de gravitación. Ese alguien fue otro inglés, Henry Cavendish, miembro como Newton de la Royal Society, que no lo hizo explícitamente sino que… pero vamos poco a poco.

Henry Cavendish
Henry Cavendish (1731-1810) [dominio público].

El objetivo de Cavendish no era calcular ninguna constante: era determinar la densidad de la Tierra. Sin embargo, como veremos luego, una vez conocida la densidad de la Tierra lo demás es trivial. De ahí que sea común decir que Cavendish midió el valor de la constante de gravitación, aunque en sus publicaciones en la Philosophical Transactions de la Royal Society nunca se mencionase explícitamente ese valor – tras el experimento de Cavendish lo demás es obvio.

Aunque el experimento de Cavendish es muy ingenioso, es injusto llamarlo así: no fue él quien tuvo la idea sino otro inglés, el clérigo John Michell, que además postuló una hipótesis absolutamente maravillosa relacionada con la gravedad, de la que hablaremos luego. Michell, que entre otras cosas era geólogo, tenía gran interés en obtener el valor de la masa terrestre, y se le ocurrió un experimento genial.

La idea tenía dos partes. En primer lugar, supongamos que tenemos un objeto de masa conocida, como una bola de plomo A, y que somos capaces de medir la fuerza de atracción gravitatoria que sufre por parte de otra masa conocida B. Si luego medimos la fuerza gravitatoria que la Tierra ejerce sobre nuestra bola y comparamos ambas fuerzas, tendremos la relación entre las masas de la Tierra y del objeto B. Por ejemplo, si el peso de la bola –es decir, la fuerza con la que la Tierra la atrae– es un millón de veces mayor que la fuerza ejercida por B, entonces la masa de la Tierra es un millón de veces mayor que la del objeto B, ya que de acuerdo con Newton la fuerza gravitatoria es proporcional a cada masa.

La segunda parte de la idea consistía en resolver la pega evidente: ¿cómo medir la fuerza de atracción gravitatoria ejercida entre masas mucho menores que la de la Tierra? Haría falta un instrumento más sensible que cualquiera diseñado hasta entonces, pero Michell también tenía una respuesta para ello, en parte gracias a Robert Hooke, del que hablamos ya en la anterior entrega de la serie.

Aunque Hooke apareciera entonces por sus ideas sobre el movimiento planetario y la gravedad, también es el responsable de la famosa Ley de Hooke, que describe el comportamiento de los cuerpos elásticos y cuánto se alargan al sufrir una fuerza. La elasticidad era la solución al problema de Michell, y el inglés ideó lo siguiente: tomaría un par de bolas de plomo y las colgaría de un brazo de madera, pendiente a su vez de un cable. De este modo el brazo podría girar sobre su centro según el cable se iba enroscando sobre sí mismo, aunque si se dejaba libre, por supuesto, el cable se relajaría hasta alcanzar su posición de equilibrio.

A continuación se tomaría un segundo par de bolas de plomo más pesadas y fijas, que quedarían cada una de ellas cerca de una de las bolas más pequeñas. La idea era la siguiente: las bolas ligeras y móviles sufrirían una minúscula atracción gravitatoria por parte de las grandes, de modo que tenderían a moverse hacia ellas. Esto sería posible, ya que las bolas ligeras colgarían del brazo pendiente del cable, pero al moverse hacia las más pesadas el cable se iría enroscando. Dado que, de acuerdo con Hooke, cuanto más enroscado estuviese el cable más se opondría a seguir enroscándose, llegaría un momento en el que el sistema quedase en equilibrio.

¿Cuándo? Cuando la fuerza gravitatoria que tendiese a mover las bolas y enroscar el cable fuese igual que la fuerza elástica que tratase de devolver el cable a su posición relajada. Y gracias a Hooke y otros, era posible medir la fuerza de torsión elástica del cable, de modo que así sería posible medir a su vez la fuerza gravitatoria entre bolas pesadas y bolas ligeras – si luego se pesaba una de las bolas ligeras y se comparaba su peso con aquella fuerza, sería posible determinar la relación entre la masa de la Tierra y la de una bola pesada.

No me negarás que la idea de Michell era ingeniosísima, pero tenía un problema: la fuerza a medir era tan minúscula que casi cualquier cosa afectaba al resultado. Una leve brisa, una imperfección en el cable, la vibración del suelo al andar sobre él… el inglés nunca pudo determinar el resultado de manera consistente. La chispa del genio había sido suya, pero no pudo llevar a cabo la idea con la suficiente meticulosidad. De ahí la llegada de Cavendish.

Como siempre, los científicos de la Royal Society formaban grupos de amigos que colaboraban bastante. Michell murió en 1793 y dejó el aparato a John Hyde Wollaston, que a su vez se lo pasó a otro amigo de ambos, Henry Cavendish. Éste no intentó utilizar el aparato de Michell, sino que se inspiró en él para fabricar otro basado en la misma idea pero mucho más preciso, y lo logró en 1797.

Cavendish construyó un aparato bastante grande: las bolas de plomo más pesadas eran de nada menos que 160 kg, y las ligeras de unos 0,73 kg. El brazo de madera del que pendían las bolas ligeras tenía unos 180 cm, y el cable tenía una longitud similar. Pero Cavendish, que era sumamente cuidadoso, además encerró todo el aparato en una caja de madera casi hermética para evitar corrientes de aire y vibraciones.

¿Cómo observar entonces cuánto se enroscaba el cable? Mediante un sistema de catalejos y lámparas que permitían mirar dentro de la caja. De este modo era posible aislar lo más posible el experimento pero seguir pudiendo observar lo que pasaba dentro. Sé que mi descripción es más bien pobre, pero tal vez cuando veas esta figura –obra del propio Cavendish– todo quede más claro:

Experimento de Cavendish
Experimento de Cavendish [dominio público].

Como ves, las dos bolas grandes atraen a las otras haciendo girar el brazo en el mismo sentido: la bola ligera de la derecha de la figura vendrá hacia nosotros, y la de la izquierda se alejará de nosotros, haciendo así girar el cable vertical que cuelga de F. También puedes ver las lámparas y los catalejos a los lados.

Cuando Cavendish dejó el sistema libre, las dos bolas pequeñas hicieron lo que el gran Newton había predicho que harían: se desplazaron ligerísimamente hacia las grandes, cada vez más despacio según iban torsionando el cable, hasta que la fuerza elástica de torsión detuvo el movimiento. Las bolas pequeñas se habían movido unos 4 mm.

Con ese dato, el inglés dedujo la fuerza elástica ejercida por el cable, y con ella pudo conocer la fuerza gravitatoria que cada par de bolas ejercía la una sobre la otra; en términos modernos eran unos 1,7·10-7 newtons, más o menos el peso de un grano de arena.

Mediante la comparación entre esa fuerza y el peso de una bola ligera, que no es otra cosa que la fuerza que la Tierra ejerce sobre ella, Cavendish determinó indirectamente la masa y densidad de la Tierra –que era lo que él quería obtener al fin y al cabo–. Una vez más en términos modernos, la masa de la Tierra era de unos 6·1024 kg y su densidad de unos 5450 kg/m3, más de cinco veces la densidad del agua.

Aunque él no dedujese el valor de la constante de gravitación, hoy podemos usar sus datos para calcular el valor cavendishiano de G, que es 6,74·10-11 N m2 kg-2, tan sólo un 1% superior al valor aceptado actualmente. Como tantas veces en ciencia, este logro fue una combinación de idea genial y mimo al detalle, en el duo Michell-Cavendish.

Puede que te parezca una tontería pararnos tanto en el cálculo de la constante gravitatoria: el mérito mayor, al fin y al cabo, está en postular la ley de gravitación, y no en calcular la constante de proporcionalidad. Pero el cálculo de esta constante supuso a su vez que podíamos calcular una miríada de cosas que antes eran imposibles.

Por ejemplo, conocida la trayectoria de la Tierra alrededor del Sol –su radio orbital y su período– y teniendo el valor de la constante newtoniana, era posible determinar la masa del Sol, que resultó ser unas 333 000 veces la masa de la Tierra. ¡Descomunal!

Pero es que la cosa no acaba ahí. Al conocer el valor de G teníamos, ahora sí, la forma completa de la Ley de Gravitación Universal, y esto significaba que no teníamos que aplicarla solamente al Sol: para cualquier objeto orbitando alrededor de otro a causa de la gravedad, conocida la órbita y su período, era posible determinar la masa del objeto central. Esto significó que, en poco tiempo, pudimos conocer la masa de todos los objetos celestes con satélites conocidos, como Júpiter o Saturno, sin necesidad de acercarnos a ellos.

De modo que el experimento de Michell-Cavendish resultó ser de una importancia enorme. Cavendish, por cierto, era un hombre honorable y dio todo el mérito de su experimento a John Michell, que desgraciadamente había muerto para cuando el otro realizó el experimento refinado. Pero Michell no sólo tuvo esta contribución al conocimiento de la gravedad y sus consecuencias.

En 1783 Michell tuvo una idea imperfecta pero absolutamente genial, desde luego adelantadísima a su tiempo. Este fue el razonamiento del inglés: de acuerdo con las leyes de Newton –de la dinámica y de la gravitación– es posible determinar la masa de un objeto central, como el Sol, observando el movimiento de los astros que lo orbitan. Pero debería ser posible hacer lo mismo observando la luz emanada por el objeto.

Recuerda que la hipótesis newtoniana sobre la naturaleza de la luz, algo de lo que hemos hablado largo y tendido en el pasado, era corpuscular: de acuerdo con el divino Isaac, la luz está compuesta por minúsculas partículas indivisibles. Puesto que Michell era un newtoniano convencido, él también concebía la luz como una miríada de pequeñísimos objetos materiales que viajan muy deprisa.

Pero entonces, necesariamente, la luz debería estar afectada por la gravedad. Más específicamente, si un objeto muy masivo, como una estrella, emite luz, esta debería ir decelerando según se aleja de la estrella, ya que avanza contra la fuerza gravitatoria. Sería entonces posible medir –al menos en teoría– la disminución en la velocidad de la luz que abandona cualquier estrella y así estimar la masa de la estrella.

Esto es erróneo: como veremos más adelante, es cierto que la luz siente el efecto de la gravedad, pero no para disminuir su velocidad. De acuerdo con la relatividad especial, la velocidad de la luz es constante. El efecto gravitatorio sobre la luz es de otro tipo, y en esto Michell estaba equivocado, ya que no hay disminución de velocidad, luego sería imposible estimar la masa de ningún objeto midiendo cuánto se frena la luz que emite. No, la maravilla de la idea de Michell es otra.

El inglés se planteó lo siguiente: si la luz se frena más cuanto más masivo es un objeto, ¿no sería posible que llegara a detenerse y caer de nuevo al objeto que la emitió? El danés Ole Christensen Rømer había estimado la velocidad de la luz el siglo anterior, de modo que Michell pudo incluso calcular, utilizando la gravitación y la segunda ley de Newton, cuál debería ser la masa de una estrella para que su propia luz no pudiera escapar de ella. El resultado resultó ser un diámetro de unos quinientos soles, pero eso es lo de menos, porque Michell partía de varios datos y conceptos erróneos (la propia velocidad estimada por Rømer era de unos 220 000 km/s, por ejemplo).

John Michell estaba postulando la existencia de agujeros negros. Objetos tan masivos que la velocidad de escape debida a su propia influencia gravitatoria es mayor que la velocidad de la luz, luego sería imposible verlos. Él no los llamó agujeros negros, pero la idea es exactamente ésa. Mejor que yo lo explicó el propio Michell en su artículo de 1783 publicado en la Philosophical Transactions de la Royal Society el año siguiente (no te pierdas la cautelosa frase final):

Si el radio de una esfera de la misma densidad que el Sol fuera mayor que la del Sol en una proporción de 500 a 1, un objeto que cayese desde una distancia infinita hacia él adquiriría, al llegar a la superficie, una velocidad mayor que la de la luz, y por lo tanto si suponemos que la luz es atraída por la misma fuerza en proporción a su vis inertiae respecto a otros cuerpos, toda la luz emitida por un cuerpo así volvería a caer a él por efecto de su propia gravedad. Esto supone que la luz es afectada por la gravedad del mismo modo que los objetos con masa.

Agujero negro Una “estrella oscura”, en términos de John Michell [Alain r [http://en.wikipedia.org/wiki/File:BH_LMC.png] / CC Attribution-Sharealike 2.5 License [http://creativecommons.org/licenses/by-sa/2.5/deed.en]].

Una estrella de este tipo sería invisible para nosotros, ya que al volver toda su luz a caer a ella, sería negra. Pero ¿cómo detectar entonces estas estrellas oscuras? Michell también tiene respuesta para esto:

No podríamos tener información de objetos de este tipo a partir de la luz; sin embargo, si hubiese algún otro objeto luminoso orbitando a su alrededor, podríamos inferir por el movimiento de los cuerpos que orbitan la existencia de un objeto central con cierto grado de probabilidad.

Dicho de otro modo, si viésemos una estrella normal moviéndose alrededor de una “estrella fantasma”, es que en ese lugar probablemente hay una estrella oscura. Y así es precisamente como, muy a menudo, detectamos la presencia de agujeros negros hoy en día. ¿Tiene mérito Michell, o no lo tiene?

Pero, volviendo a nuestro conocimiento de la propia naturaleza de la fuerza gravitatoria, los años posteriores a Newton fueron –como en casi todo lo demás que estudió el inglés– una interpretación y refinamiento de sus teorías. Uno de los principales problemas filosóficos, ya planteado por el propio Newton, era lo aparentemente absurdo de una fuerza que actúa a distancia. Aunque me repita, te recuerdo la frase de Sir Isaac:

Que […] un cuerpo pueda actuar sobre otro a distancia, a través del vacío, sin la mediación de ninguna otra cosa […] me parece algo tan absurdo que creo que ningún hombre que posea facultades de razonamiento en asuntos filosóficos pueda caer en ello.

Multitud de científicos, algunos de ellos contemporáneos de Newton y la mayor parte posteriores a él, intentaron resolver el dilema proponiendo un buen puñado de explicaciones diferentes que no requerían de acción a distancia alguna. Este tipo de explicaciones, aunque diferentes, tienen algo en común: tratan de dar cuenta de la gravedad como un proceso derivado, no fundamental, que requiere de presiones y empujones mecánicos de alguna cosa, y suelen llamarse hipótesis mecánicas o hipótesis cinéticas de la gravedad.

Una de las primeras es precisamente contemporánea de Newton: la postuló un suizo, Nicolas Fatio de Duillier, y no me negarás que, aunque errónea, es deliciosa. Este suizo era amigo tanto de Huygens como de Newton, y en 1688 expuso su explicación sobre el origen de la gravedad ante la Royal Society. La explicación de Fatio no requería de acción a distancia alguna. No sólo eso, sino que es de una sencillez apabullante.

De acuerdo con Fatio, la atracción gravitatoria entre los cuerpos no existe: es una ilusión, una consecuencia aparente de un efecto físico real. El Universo es atravesado por partículas diminutas, que lo llenan todo, y que viajan a una velocidad gigantesca y aleatoria. Esto significa que un objeto situado en el espacio –como por ejemplo un planeta– recibe una miríada de impactos minúsculos cada segundo, procedentes de estas innumerables partículas.

Ahora bien, si un planeta tiene otro planeta cerca, entonces ya no recibe impactos de todas direcciones. El segundo planeta sirve de escudo al primero, de manera que desde esa dirección hay menos impactos –porque las partículas que provienen de ese lugar han impactado ya contra el planeta “escudo”–. Dicho de otro modo, un planeta puede “hacer sombra” a otro, protegiéndolo de los pequeños impactos de esa dirección.

Pero entonces, ¿qué le sucederá al planeta protegido? Que sufrirá una fuerza neta hacia el otro. Antes los impactos eran en todas direcciones, pero ahora hay más en una dirección –la que no tiene escudo– que en la otra, luego el resultado neto es un empujón hacia el otro planeta. No porque el segundo planeta atraiga al primero, ni porque haya interacción alguna entre ellos, sino simplemente porque se ha roto el equilibrio de impactos en todas las direcciones.

Y, por supuesto, el planeta original sirve de escudo al nuevo, de modo que a éste le pasa exactamente lo mismo: sufre una fuerza neta hacia su compañero, ya que no recibe impactos provenientes de esa dirección.

Observa los matices: la gravitación fatiana no es una atracción, sino el resultado de un empujón en sentido contrario. Y no es una fuerza fundamental, sino que es un efecto mecánico de impactos de pequeñas partículas. Pero, aunque ingeniosa, la idea del suizo no se sostiene, y sus propios contemporáneos ya le encontraron agujeros sin problemas. No hablo ya de los enigmas que deja sin resolver, como por ejemplo de dónde provienen esas partículas y cuál es su naturaleza, sino de contradicciones con lo observado.

En primer lugar, si el espacio está lleno de partículas materiales capaces de mover los astros con sus impactos, un objeto en movimiento recibiría más impactos de frente que en su parte posterior, luego debería frenarse: al igual que todas las otras hipótesis de la época en las que el espacio no está realmente vacío, la gravedad de Fatio exige que haya un arrastre sobre los planetas en sus movimientos, algo que no se observaba.

Además, tal número de impactos –por pequeños que fuesen– debería producir un calentamiento en los objetos… un calentamiento que tampoco se observaba. De manera que la explicación del suizo no fue generalmente aceptada, y con razón. Pero Nicolas Fatio no fue el único en proponer una solución ingeniosa pero errónea, ni mucho menos.

Otro contemporáneo –y, como seguro que sabes si eres viejo del lugar, terrible rival– de Newton, Robert Hooke, propuso una hipótesis ondulatoria de la gravitación. Según Hooke, todos los objetos con masa emiten constantemente ondas gravitatorias, que son ondulaciones del éter que rellena todo el espacio. Y cualquier objeto que recibe esas ondas se mueve, no en el sentido de las ondas, sino hacia la fuente que las produjo. De este modo todo objeto con masa siente una fuerza hacia cualquier otro objeto con masa.

Pero, como seguro que ya entiendes, la hipótesis de Hooke tiene más agujeros que un colador. En primer lugar requiere del éter, que tiene el mismo problema que las partículas de Fatio: ¿por qué los objetos no se frenan al viajar a través de él? Además, si todo objeto está emitiendo ondas constantemente y las ondas propagan energía, ¿de dónde proviene la energía que necesitan constantemente los objetos para emitir esas ondas? Finalmente, ¿por qué razón los objetos se mueven hacia la fuente, y cómo se produce ese efecto exactamente?

De todas las hipótesis mecánicas, aunque resulte pesado, la más genial es la del propio Newton, de la que hablamos ya en la segunda parte de esta entrada: la idea de que el éter es menos denso cerca de los objetos masivos. Aunque esta hipótesis sigue requiriendo del éter, como la de Hooke, al menos esa menor densidad disminuye el efecto de arrastre y fricción con él. Pero sigue necesitando de la existencia de algo que llena el espacio aparentemente vacío, como todas las otras.

Después de Newton no hubo demasiados intentos de explicar esta acción a distancia. De hecho la cosa no mejoró en este aspecto –a ojos de los científicos de la época, que como Newton odiaban esta especie de efecto fantasmagórico sin contacto físico entre objetos–, sino que empeoró aún más. Como veremos más adelante en la serie, la siguiente fuerza fundamental en ser descubierta resultó comportarse sospechosamente igual que la gravitación: acción a distancia una vez más. ¡No sólo no nos libramos de la primera, sino que añadimos otra!

Algunos científicos del XIX intentaron buscar una explicación a ambas fuerzas que no requiriese de acción a distancia. Los más elegantes fueron el inglés William Thomson –Lord Kelvin para ti–, que ya es casi de la familia si llevas tiempo en El Tamiz, y el noruego Carl Anton Bjerknes. Estos dos científicos se fijaron en algo que parece una acción a distancia pero no lo es: la vibración de esferas en un fluido.

Kelvin y Bjerknes
Lord Kelvin y Carl Bjerknes [dominio público].

Cuando se colocan dos esferas en un fluido, como una bañera con agua, y se hace que las dos vibren con determinada frecuencia, a veces las dos esferas se alejan una de otra y otras veces se atraen: todo depende de cómo sean las frecuencias de pulsación de ambas esferas. Si nos olvidamos de la existencia del agua, lo que parece que pasa es que las esferas se atraen o repelen a distancia, pero lo que realmente sucede no es eso: cada esfera genera pequeñas vibraciones en el agua, que se transmiten en forma de ondas hasta llegar a la otra esfera.

Dependiendo de la relación entre ambas frecuencias de vibración esto puede producir un alejamiento o acercamiento, pero tanto el uno como el otro es efecto de los pequeños empujones del agua. No hay acción a distancia: hay la acción “invisible” de un fluido que lo llena todo. ¿Ves a dónde quiero llegar?

De acuerdo con Bjerknes y Kelvin, como había dicho Hooke un par de siglos antes, el espacio está lleno de un fluido invisible y casi incognoscible –el éter–. Los objetos pueden pulsar en el éter con distintas frecuencias, y eso puede producir atracciones y repulsiones como sucede en el agua. Así, en el caso de la gravedad las frecuencias siempre producen una atracción, mientras que en el caso de la electricidad es posible que los cuerpos vibren con frecuencias que produzcan una repulsión mutua.

Pero claro, aunque Kelvin y Bjerknes explican cosas que Hooke no explicaba, gracias a la analogía de las esferas pulsantes en el agua, el elefante en la habitación sigue ahí: ¿por qué el éter no frena los cuerpos, y de dónde proviene la energía de esa pulsación constante en un medio físico?

En resumidas cuentas, que a finales del XIX estábamos exactamente igual que a la muerte de Newton en lo que se refiere a nuestra comprensión de la gravedad. En los siglos posteriores se habían refinado los números, se había avanzado en el tratamiento matemático del asunto –sobre todo por el trabajo en energías y cosas parecidas– pero nada más.

Hacía falta otro genio para hacer avanzar la cosa. No sería, en mi humilde opinión, un genio comparable a Newton, pero sí un genio como ha habido pocos en la historia de la Física: Albert Einstein. Pero de su contribución crucial al entendimiento de la gravedad hablaremos en la siguiente entrega de la serie. ¡Hasta entonces!













Premios Nobel – Física 1920 (Johannes Stark)











En la última entrega de la serie de los Premios Nobel hablamos del Nobel de Química de 1918, entregado al alemán Fritz Haber por lograr sintetizar amoníaco a partir de nitrógeno e hidrógeno. Hoy, por lo tanto, avanzamos un año y llegamos al período de entreguerras, para conocer el Nobel de Física de 1919, otorgado al alemán Johannes Stark, en palabras de la Real Academia Sueca de las Ciencias,

Por su descubrimiento del efecto Doppler en los rayos canales y el desdoblamiento de líneas espectrales en el interior de campos eléctricos.

Sé que la cosa suena bastante abstracta, pero si has leído el resto de la serie –en un momento digo cuáles son los artículos relevantes– creo que no te costará demasiado entender la importancia del doble descubrimiento de Stark y también que se trata de dos descubrimientos hasta cierto punto lógicos. Intentaré además mantener controlada mi antipatía hacia Stark, al menos hasta llegar a su causa, para que sus defectos de carácter no empañen la belleza de sus descubrimientos.

Además de este aviso sobre mi falta de objetividad, uno más: me ha salido un ladrillo bastante denso, sin demasiadas imágenes –no había muchas relevantes– y como no tengo apenas tiempo de releerlo, seguramente tiene aún más erratas que de costumbre… pero según me las digáis, las corrijo.

¿Preparados?

Johannes Stark
Johannes Stark (1874-1957) [dominio público].

Como decía al principio, es conveniente haber leído artículos anteriores de la serie antes de atacar éste. Como verás en el discurso de entrega del final, se mencionan los nombres de casi la mitad de los científicos de los que hemos hablado antes, todos ellos en la misma cadena de descubrimientos relacionada con los rayos catódicos. Por lo tanto, no repetiré aquí algunos de los conceptos establecidos anteriormente, pero para salir del artículo de hoy con las ideas claras estaría bien que leyeras, o releyeras, los dedicados a Wilhelm Röntgen, Lorentz y Zeeman, Philipp Lenard, J. J. Thomson, Max von Laue, los dos Bragg y Charles Barkla. ¡Venga, hombre, que es verano y tienes tiempo!

Como vimos en esa serie de artículos relacionados, a mediados del siglo XIX se descubrió la existencia de los llamados rayos catódicos, que aparecían en el interior de tubos de vacío llenos de gases enrarecidos como por ejemplo hidrógeno. Aunque finalmente se demostró que esos rayos catódicos no eran otra cosa que electrones acelerados, al principio se trató de algo sumamente misterioso; no es casualidad que el nombre incluyese la palabra rayo, algo que en la época era básicamente sinónimo de “algo que viaja en línea recta y no sabemos lo que es”.

Eugen Goldstein
Eugen Goldstein (1850-1930) [dominio público].

El nombre de rayos catódicos, por el hecho de que procediesen del cátodo del tubo de vacío, se lo debemos a un alemán, Eugen Goldstein. Pero, además de bautizarlos, Goldstein descubrió la existencia de un segundo tipo de rayos asociados a los catódicos pero en cierto modo opuestos a ellos; un tipo de rayos de los que no hemos hablado apenas en la serie, porque los descubrimientos encadenados de antes estaban relacionados todos ellos con los rayos catódicos. ¡Pero hoy la cosa cambia!

Si recuerdas el funcionamiento de los primitivos tubos de Crookes –teniendo en cuenta ya el conocimiento proporcionado por J. J. Thomson sobre la naturaleza de los rayos catódicos–, los electrones que recorren el tubo eran el resultado de ionizar el gas enrarecido que lo llenaba, como por ejemplo hidrógeno. Una diferencia de potencial muy grande entre los dos electrodos del tubo “desgajaba” el electrón del átomo de hidrógeno de su protón, acelerándolo hasta que impactaba contra el electrodo positivo.

Pero, aunque sea mirando hacia atrás con nuestro conocimiento moderno, ¿qué diablos le pasará entonces al protón huérfano de su electrón? Seguro que, desde el siglo XXI, tú puedes responder a esa pregunta. En el XIX no sabíamos de la existencia del protón como partícula subatómica, de modo que la pregunta no sería siquiera formulada… pero fue respondida casi por casualidad por Eugen Goldstein.

Goldstein se encontraba realizando multitud de experimentos con los rayos catódicos –es decir, los electrones, aunque él no sospechase de su naturaleza, ya que pensaba que eran ondas del éter–, haciendo los rayos viajar hacia el electrodo positivo. Pero en un momento determinado, en la década de 1880, Goldstein se hizo una pregunta genial: si había rayos invisibles que viajaban hacia el electrodo positivo, ¿podría haber también otros rayos invisibles que hiciesen lo mismo hacia el negativo?

Para responder a esa pregunta, en vez de hacer que el electrodo negativo estuviese al final del tubo, Goldstein extendió éste al otro lado del electrodo… pero no observó nada. En un momento de intuición asombrosa, desconozco la razón, el alemán decidió hacer agujeros o canales en el electrodo. No se me ocurre otra opción para explicar esto que la evidente, es decir, que Goldstein se planteó que tal vez lo que fuese que componía esos rayos, si existían, tal vez necesitaba los agujeros para poder atravesar el electrodo en vez de chocar con él.

Tubo de rayos canales
Tubo de Goldstein.

Sea como fuere, cuando Goldstein puso en marcha su tubo de Crookes modificado con esos pequeños canales a través del electrodo negativo observó que al otro lado aparecía la misma fluorescencia que con los rayos catódicos en el positivo. Existía un segundo tipo de rayos, opuesto en carga eléctrica a los rayos catódicos.

Goldstein bautizó a estos rayos como Kanalstrahlen o rayos canales, ya que aparecían a través de los canales abiertos en el electrodo negativo; hoy en día sabemos que en los experimentos de Goldstein realizados con hidrógeno se trataba realmente de protones, es decir, núcleos de hidrógeno. Y estos rayos canales fueron el objeto de estudio de nuestro personaje de hoy, Johannes Stark, y con ellos realizó los dos descubrimientos que le otorgaron el Nobel de 1919.

Stark es un ejemplo excelente de dos tendencias de la primera mitad del siglo XX presentes en muchos físicos alemanes: el rechazo de la mecánica cuántica por los mismos que habían contribuido a su nacimiento por un lado, y el descenso a la irracionalidad de la Deutsche Physik por otro. Sí, lo siento pero el pobre Johannes es un ejemplo por sus errores tardíos más que sus aciertos tempranos.

De hecho, al principio todo tenía muy buena pinta. Aunque no esté relacionado con el Nobel de hoy, para poner las cosas posteriores en perspectiva, no te pierdas la siguiente anécdota de Stark y Einstein. En 1907 Johannes Stark pidió a un joven Albert Einstein que escribiese un artículo sobre relatividad especial en la revista anual de la que Stark era editor. Einstein, que ya había publicado su teoría especial de la relatividad en 1905, escribió sobre el asunto y algunas de las ideas que se le ocurrieron al hacerlo llevarían finalmente al desarrollo de su teoría general de la relatividad. Stark no sólo reconoció el talento de Einstein y su teoría, sino que en cierto modo contribuyó a su desarrollo posterior. ¡Recuerda esto más adelante!

Al contrario que Einstein, Stark era fundamentalmente un físico experimental. Su interés por los rayos catódicos y, sobre todo, los rayos canales, lo llevaron a realizar multitud de experimentos con ellos, al principio en solitario y luego con sus alumnos de postgrado. Uno de ellos, publicado en 1905, probablemente tendría un sabor agridulce para Eugen Goldstein, que fracasó en un experimento casi idéntico.

Como muchos otros científicos de la época, Goldstein estaba fascinado por los rayos catódicos. No sólo quería saber qué eran –algo que nunca descubrió, y ya hemos hablado de ese descubrimiento–, sino también algo menos fundamental pero también interesante: ya que los rayos eran algo que viajaba por el espacio, ¿a qué velocidad viajaba ese algo?

Por supuesto, era imposible estimar la velocidad de los rayos catódicos utilizando métodos tradicionales: para el ojo humano la luz en los tubos aparecía simultáneamente en todas partes. No era posible, por tanto, medir la longitud del tubo y dividirla por el tiempo que tardaba la fluorescencia en aparecer al final. Pero Goldstein, que como he dicho antes era genial, tuvo una idea diferente: utilizar el efecto Doppler.

Este efecto merecería un artículo propio, y lo tendrá cuando publiquemos un bloque de mecánica ondulatoria, pero puedo dar una descripción “mal y pronto” para salir del paso aquí. Se trata de un fenómeno que todos hemos notado alguna vez con el sonido: cuando una fuente sonora se acerca a nosotros, o nosotros a ella, el sonido nos parece más agudo de lo que realmente es, y cuando se aleja de nosotros el sonido parece más grave:

La traducción física de este fenómeno la dio el austríaco Christian Doppler en 1842. Lo que realmente sucede en el vídeo de arriba es que el camión de bomberos está emitiendo ondas sonoras con determinada longitud de onda, es decir, determinada distancia entre crestas de la onda. Pero como se está acercando hacia nosotros, cada cresta que emite está más cerca de la anterior de lo que estaría si el camión estuviera parado, de modo que las crestas de la onda nos llegan “apretadas” entre sí. Lo contrario pasa cuando el camión se aleja:


Animación del efecto Doppler [Charly Whisky [http://en.wikipedia.org/wiki/File:Dopplerfrequenz.gif] / CC Attribution-Sharealike 3.0 License [http://creativecommons.org/licenses/by-sa/3.0/deed.en]].

En el caso del sonido, una menor longitud de onda se traduce en nuestro cerebro como un sonido más agudo, y una mayor longitud de onda como un sonido más grave. Pero la explicación de Doppler se aplica no sólo al sonido, sino a cualquier onda, incluida la luz. Seguro que alguna vez has oído hablar del “corrimiento al rojo” y cosas parecidas, ya que en el caso de la luz la longitud de onda se traduce en nuestro cerebro como el color de la luz.

De hecho, en la época que nos ocupa respecto a los rayos catódicos y canales el efecto Doppler ya había sido observado para varias estrellas. En 1848, tan sólo seis años después de que Doppler postulase su explicación, Hippolyte Fizeau –del que ya hemos hablado aquí antes– midió por primera vez el efecto en una estrella, y en 1868 el efecto había sido utilizado ya para estimar la velocidad relativa (hacia nosotros o alejándose de nosotros) de varias estrellas.

Así que Eugen Goldstein tuvo una idea simple pero muy eficaz: observar el cambio en la longitud de onda aparente de la luz asociada a los rayos catódicos. Midiendo la longitud de onda “de frente” a los rayos y “de espalda” a ellos, así como perpendicularmente, sería posible deducir, utilizando la fórmula de Doppler, la velocidad de esos rayos. Si volvemos al ejemplo del camión de bomberos de antes, seguro que comprendes el sistema: si el camión viaja a muy poca velocidad, el efecto es apenas perceptible, mientras que si va a todo trapo la diferencia antes y después de que pase será descomunal.

¿Qué diferencia de longitud de onda midió Goldstein en el caso de los rayos catódicos? Absolutamente ninguna.

La conclusión del alemán, tras una serie de meticulosos experimentos, fue clarísima: sean lo que fueren los rayos catódicos, viajaban a una velocidad muy pequeña comparada con la de la luz. Esto merece una puntualización: en el caso del camión de bomberos el efecto se nota porque su velocidad, aunque pequeña comparable con la del sonido, no es despreciable respecto a ella. Sin embargo, aunque el sonido sufre el efecto en el caso del camión, la luz no lo sufre de manera perceptible: no vemos que el camión sea azulado según se acerca a nosotros y rojizo según se aleja, porque va despreciablemente lento comparado con la luz.

Irónicamente, aunque Goldstein fue el descubridor de los rayos canales, o bien nunca intentó emplear su sistema Doppler para estimar su velocidad, o no pudo hacerlo en la práctica. Es una desgracia, porque si lo hubiese intentado en ese caso, ¡se hubiera encontrado con una sorpresa!

Eso fue precisamente lo que hizo Johannes Stark: medir cuidadosamente la longitud de onda de la luminosidad asociada a los rayos canales desde distintos ángulos. Sin embargo, Stark no estaba interesado en estimar la velocidad de los rayos, sino algo mucho más importante: su naturaleza, ya que lo único que era seguro hacia 1900 es que los rayos canales debían tener carga opuesta a los catódicos, es decir, necesariamente eran de carga positiva. A ver si consigo explicarme.

Imagina que en un lugar –por ejemplo, un tubo de Crookes– hay una mezcla de diferentes objetos. Algunos de esos objetos se mueven y otros no, y queremos saber cuáles son los objetos que se mueven sin verlos directamente. Difícil, ¿no? Pero imagina además que sabemos la longitud de onda de la luz que emiten todos esos objetos en reposo.

Lo único que tenemos que hacer es mirar el lugar desde distintos ángulos, y medir la longitud de onda que percibimos de cada objeto y cada ángulo. Si la longitud de onda de algún objeto siempre es la misma, es que ese objeto no se mueve –o lo hace patéticamente despacio comparado con la luz, claro–. Si algún objeto muestra efecto Doppler, es que ése es el que se mueve. Así es como Stark procedió en sus experimentos.

Para ello contaba con varios aliados. Uno era un espectrógrafo muy preciso, ya que como puedes imaginar, por muy rápido que viajasen los rayos canales la luz no iba a cambiar de color del rojo al azul ni nada parecido. El otro era el conocimiento muy preciso de las líneas espectrales del hidrógeno, es decir, las longitudes de onda que emite el átomo de hidrógeno.

Cuando Stark realizó su serie de experimentos, comprobó que las líneas espectrales del hidrógeno se desplazaban de acuerdo con el efecto Doppler: los átomos de hidrógeno estaban viajando exactamente en la dirección de los rayos canales a una velocidad considerable, aunque pequeña comparada con la de la luz. Pero, dado que era conocido que los rayos canales tenían carga positiva, la conclusión de Stark en 1905 fue muy clara: los rayos canales en un tubo lleno de gas eran los iones positivos de hidrógeno atómico.

Cuando realizó el experimento con otros gases, el resultado fue idéntico: los rayos canales eran chorros de iones del gas que llenaba el tubo. Y esto, mirando hacia atrás, tenía mucho sentido. Los rayos catódicos, como había sido ya demostrado, eran electrones, pero ¿de dónde procedían esos electrones? De los átomos del gas. Al arrancar esos electrones a los átomos lo que quedaba era el resto del átomo con carga positiva, claro, que empezaba a moverse entonces en sentido opuesto a los electrones. Por eso los rayos canales y los catódicos viajaban en sentidos opuestos: eran los dos “trozos” del átomo, con cargas opuestas, desgajados dentro del tubo.

Esto explicaba también, en opinión de Stark, por qué los rayos canales mostraban efecto Doppler y los catódicos no. No era porque los rayos catódicos viajasen muy despacio, como había pensado Goldstein, sino porque la naturaleza de ambos era muy diferente: los rayos catódicos eran partículas muy ligeras, electrones que impactaban contra otros átomos del gas en el tubo. Así, quien estaba emitiendo luz a causa de los rayos catódicos no eran los electrones, sino las partículas contra las que impactaban, que estaban en reposo. Al contrario, los rayos canales emitían luminosidad al impactar contra otras partículas, pero ellos mismos emitían parte de la luminosidad al ser átomos cargados y no electrones sueltos.

Dicho mal y pronto, en el caso de los rayos catódicos el emisor era el obstáculo, mientras que en el de los canales el emisor era el vehículo –aunque el obstáculo también emitía su parte de radiación, que no sufría efecto Doppler–. Stark había demostrado la naturaleza de los rayos canales, hasta donde era posible demostrarla entonces –el modelo atómico de Rutherford, por ejemplo, no llegaría hasta 1909, cuatro años más tarde–.

Parte de la ironía del asunto –que llegará más adelante, pero sigo dejando anécdotas para prepararla– es que a veces no se producía emisión de luz por parte de los iones positivos de algunos gases, cuando la velocidad de las partículas disminuía por debajo de cierto límite. No quiero decir que el efecto fuera despreciable, sino que desaparecía bruscamente. ¿Cómo era esto posible?

Tal vez tú, avispado y sabio lector, desde la comodidad de tu sillón en el siglo XXI y con cuántica sin fórmulas a tus espaldas, tengas la respuesta: no todos los impactos producen emisión de luz, ya que esa emisión se debe a que un electrón del ión o del átomo que recibe el choque es excitado y gana energía. Pero un electrón en un átomo no puede ganar cualquier cantidad de energía arbitraria, ya que su energía está cuantizada.

Stark, de hecho, lo explicó básicamente así: utilizando la hipótesis de Planck, que recibió el galardón de Física de 1918, por cierto, justo el año anterior a Stark. Digo esto porque Stark, como tantos otros físicos del cambio de siglo, vio en la hipótesis de Planck y la naciente mecánica cuántica la respuesta a muchos misterios que no tenían explicación sin las nuevas ideas. Pero, al mismo tiempo, no era consciente de las consecuencias desasosegadoras de esas nuevas ideas.

En cualquier caso, el otro descubrimiento crucial de Stark, además del efecto Doppler en los rayos canales, tuvo que ver con algo relacionado: la modificación de la longitud de onda de la luz emitida haciendo alguna perrería a los rayos. Este descubrimiento se produjo en 1913, es decir, cuando ya teníamos una idea algo más concreta sobre la estructura de los átomos.

Ya hemos visto un Nobel que hacía algo muy parecido: el de Lorentz y Zeeman, que al someter llamas de sodio a intensos campos magnéticos observaron que se producía un desdoblamiento de las líneas de emisión. Pero Stark no utilizó un campo magnético, sino un campo eléctrico.

Al hacer pasar los rayos canales –es decir, iones resultado de arrancar electrones a los átomos del gas– a través de un campo eléctrico intenso, el alemán observó que se producía un desdoblamiento considerable en las líneas espectrales del gas. El mismo año un italiano, Antonino Lo Surdo, hizo algo muy parecido, aunque sólo en Italia se conoce este efecto como efecto Stark-Lo Surdo, y en el resto del mundo lo denominamos efecto Stark. Como ves, es muy parecido al efecto Zeeman, aunque con un campo eléctrico en vez de uno magnético, y no aplicado a la llama sino a los rayos canales de un gas.

Stark Nobel
Johannes Stark en la recepción del Nobel de 1920 (el segundo varón por la derecha, entre Willstätter y von Laue) [dominio público].

El desdoblamiento de líneas en el efecto Stark se producía de manera diferente dependiendo de la relación entre la dirección de observación y la dirección del campo eléctrico, pero esto tenía bastante sentido. De hecho, con el electromagnetismo clásico y el modelo de Rutherford era posible demostrar teóricamente que el efecto Stark es inevitable.

Un campo eléctrico tiende a “tirar” de las cargas positivas en un sentido, y de las negativas en el contrario. Así, en el caso de un átomo, el núcleo –de carga positiva– sufre el tirón en un sentido, y los electrones –de carga negativa– en el opuesto. No todos los electrones se comportan igual en esto, por cierto: los más cercanos al núcleo atómico son atraídos tan fuertemente por él que apenas cambian su comportamiento, pero los más externos tienen suficiente libertad como para desplazarse ligeramente en sentido opuesto al campo.

Si imaginamos que el tirón que sufren los electrones es hacia la derecha, por ejemplo, entonces le sucederá algo distinto a un electrón que en ese momento esté a la derecha del núcleo que a uno que esté a la izquierda: el que está a la derecha del núcleo tenderá a ir más hacia la derecha, es decir, alejarse del núcleo, mientras que el que está a la izquierda en ese momento tenderá a acercarse al núcleo.

Como la distancia entre electrones y núcleo cambia, también lo hace la energía de los electrones, y por lo tanto el electrón de la derecha, que se aleja, gana energía potencial, mientras que el que está a la izquierda la pierde. Aunque esos dos electrones originalmente estuviesen a la misma distancia del núcleo y por tanto tuviesen la misma energía, se ha producido un desdoblamiento energético: uno tiene un poco más de energía que antes, el otro un poco menos.

Sé que mi explicación es poco rigurosa y simplista, pero espero que con ella comprendas por qué lo que antes era una línea de emisión puede convertirse en más de una línea bajo la acción de un campo eléctrico intenso. Lo más importante de esto son dos cosas: la primera, que el efecto Stark nos permitió estudiar la estructura interna del átomo, ya que con él se nota la diferencia entre electrones internos y externos, y es posible saber cuántos electrones hay en una capa determinada como mínimo.

La segunda es bastante más interesante: la explicación que he dado fue la que se intentó dar al principio –el primero en hacerlo fue Woldemar Voigt–, utilizando el electromagnetismo clásico. Esa explicación sirve de manera cualitativa, pero cuando Voigt la usó para predecir la magnitud del efecto Stark, el desdoblamiento teórico resultó ser varios órdenes de magnitud menor que el real.

La física clásica era incapaz de explicar el efecto Stark.

Sin embargo, como seguro que te hueles, el nuevo modelo atómico de Bohr-Sommerfeld explicaba el efecto con una precisión pasmosa. No voy a hablar aquí del modelo de Bohr, porque ya lo hice en un artículo específico y porque además lo haré otra vez en esta misma serie, ya que el danés ganó el Nobel de 1922 precisamente por eso. Baste decir que la nueva mecánica cuántica daba cuenta del efecto Stark sin problemas, y de hecho muchos de los físicos de la época dieron saltos de alegría cuando Stark publicó sus resultados: no sólo era una prueba experimental más de su validez, sino que proporcionaba muchos datos más para refinar la cuántica.

¿Qué opinaba Stark de todo esto? Su observación del efecto que lleva su nombre es de 1913, y las explicaciones empezaron a llegar poco después. En 1920, cuando recibió el Nobel de 1919, su posición ya era muy clara al respecto. Creo que es mejor que lo leas en palabras del propio Stark, y que saborees la ironía deliciosa tú mismo. En su discurso de agradecimiento por el Nobel, al decir que el modelo de Bohr explica perfectamente el efecto Stark, el alemán dijo (énfasis mío):

Aunque yo mismo me encontré hace tiempo en el umbral de esta teoría [la mecánica cuántica], y aunque las fórmulas finales proporcionan una relación de frecuencias de las líneas espectrales que concuerdan bien con los datos observados, soy incapaz de considerarla cierta, porque en sus puntos de partida postula suposiciones que contradicen no sólo la teoría de Maxwell sino el propio espíritu de la Física.

Si llevas tiempo aquí –y, no nos engañemos, si has llegado hasta este punto del ladrillo es que llevas tiempo aquí– seguro que sabes exactamente a qué se refiere Stark con eso del espíritu de la Física. Al igual que Albert Einstein y Max Planck, que también se encontraron “en el umbral de esta teoría”, Stark era incapaz de aceptar la indeterminación cuántica, el cambio de concepción sobre el Universo que suponía la nueva teoría.

El problema es que la antigua no funcionaba, e incluso el propio Stark tenía que aceptar que la nueva sí. Pero el cambio entre 1905, cuando Stark aceptaba entusiasmado la cuantización de la energía para explicar la ausencia de emisión en los rayos canales de baja velocidad, y 1920, cuando rechazaba de plano la mecánica cuántica, es aún más profundo. Y la culpa no la tuvo nada relacionado con la Física, sino lo más importante que sucedió en Europa entre 1905 y 1920.

En 1905 Stark se guiaba por la razón, la curiosidad científica y el interés objetivo por descubrir la verdad de las cosas. Es cierto que entonces aún no era posible conocer el alcance filosófico de la hipótesis de Planck, pero el cambio en Stark fue mucho más allá de su rechazo a la cuántica, y el momento de cambio fundamental fue la Gran Guerra.

Como otros alemanes de la época, la Primera Guerra Mundial despertó en Stark un nacionalismo exacerbado, y poco a poco sus prioridades fueron cambiando. La nación era lo primero, antes que la ciencia y el descubrimiento de la verdad de las cosas. Esto se fue agudizando hasta 1920, cuando recibió su Nobel, pero siguió yendo a más con los años hasta convertir a Stark en un fanático de la talla de Philipp Lenard.

Sí, desgraciadamente Johannes Stark fue una de las principales figuras de la Deutsche Physik, lo cual es absolutamente irónico dado su papel en 1907, cuando animaba a Einstein a escribir sobre relatividad. Pero ahí estaba la diferencia: al Stark de 1907 lo que le importaba es que Einstein era un físico talentoso, y al de 1930 le importaba que Einstein era un judío. En el dilema terrible que sus contemporáneos en ciencia, como von Laue, Haber o Heisenberg, se encontraron con el auge del Nazismo, Stark tomó una postura extrema – la misma que Lenard.

De hecho, en 1934 Johannes Stark dejó su postura meridianamente clara de manera explícita en un libro titulado Nationalsozialismus und Wissenschaft (Nacional socialismo y ciencia). De acuerdo con él, el objetivo último de la ciencia es servir a la nación; por tanto, deben priorizarse los campos que ayudan al desarrollo armamentístico, y despreciarse la física teórica. ¡Y esto lo dice quien medía el efecto Doppler de los rayos canales, tócate las narices!

Stark, viejo
Johannes Stark en la década de los 30, ¡si hasta se le ve en la cara! [dominio público].

Es posible que recuerdes, hace muchísimo tiempo, el artículo sobre Werner Heisenberg en el que decíamos que al pobre Werner lo llamaban “judío blanco” por ser partidario de la relatividad einsteiniana. Pero ¿quién lo bautizó así? ¡Adivina!

En 1937 Stark publica un artículo titulado Weiße Juden in der Wissenschaft (Judíos blancos en la ciencia) en Das Schwarze Korps, el periódico de las SS. ¿Hace falta que siga? Simplemente diré que también dirigió una carta a Max von Laue –ese sí, admirable– en la que básicamente lo conminaba a seguir las directrices del partido o atenerse a las consecuencias. ¡Al mismo von Laue junto al que está en la foto del Nobel de más arriba! En fin.

Espero que este descenso a los abismos de la irracionalidad no te haga olvidar las dos grandes contribuciones de Stark a nuestro conocimiento de la física atómica. Como siempre, para intentar mostrar la relevancia contemporánea de los descubrimientos, te dejo con el discurso pronunciado por Å.G. Ekstrand, Presidente de la Real Academia Sueca de las Ciencias, el 1 de junio de 1920:

Damas y caballeros,
La Real Academia de las Ciencias ha decidido otorgar el Premio Nobel de Física de 1919 al Dr. Johannes Stark, catedrático de la Universidad de Greifswald, por su descubrimiento del efecto Doppler en los rayos canales y el desdoblamiento de líneas espectrales en campos eléctricos.
Sucede raras veces que el estudio de un fenómeno físico lleve a una serie tan brillante de descubrimientos importantes como la que ha seguido a la conducción de una corriente eléctrica a través de un gas enrarecido. Ya en 1869 Hittorf descubrió que si se disminuye la presión en un tubo de descarga, se emiten rayos desde el electrodo negativo, el llamado cátodo. Aunque son invisibles al ojo humano, pueden ser observados a través de determinados efectos únicos en ellos. El estudio continuado de estos rayos catódicos, en el que Lenard en particular obtuvo gran mérito, mostraron que están compuestos por un torrente de partículas cargadas negativamente cuya masa es de tan sólo una 1/1800 parte de la masa del átomo de hidrógeno.
Llamamos a estas diminutas partículas electrones, y poco a poco una de las principales teorías de la física moderna creció a partir del estudio de las propiedades de los electrones y su relación con la materia. La teoría electrónica, junto con su concepción de la estructura de la materia, ha adquirido una importancia radical tanto para la física como para la química.
Cuando los rayos catódicos inciden sobre un objeto, éste se convierte en fuente de una nueva radiación, la descubierta por Röntgen en 1895 y denominada por él rayos X, el estudio de los cuales ha llevado a tantos resultados importantes para las principales ramas de la ciencia, no sólo de la física. A través del descubrimiento de von Laue de la difracción de rayos X en cristales se demostró que estos rayos son ondas luminosas de muy corta longitud de onda. Ahora es posible incluso fotografiar el espectro de estos rayos y la ciencia se ha enriquecido de este modo con un nuevo método de investigación, cuyas implicaciones no pueden ser aún completamente asimiladas.
El descubrimiento de von Laue también llevó a otros en el campo de la cristalografía. Es posible, ahora que W. H. Bragg y su hijo han deducido los métodos teóricos y experimentales necesarios, determinar las posiciones de los átomos en cristales. Estos métodos han abierto un nuevo mundo a nuestros ojos, un mundo que ha sido ya parcialmente explorado.
No fue menos importante el descubrimiento de Barkla en 1906 del hecho de que todo elemento químico, al ser irradiado con rayos X, emite un espectro de rayos X característico del elemento en cuestión. Este descubrimiento ha resultado ser de extraordinaria importancia para el estudio teórico de la estructura del átomo.
En el año 1886 Goldstein descubrió un nuevo tipo de rayos en tubos de descarga llenos de un gas enrarecido, el estudio de los cuales ha adquirido enorme importancia para nuestro conocimiento de las propiedades físicas de átomos y moléculas. Por el modo en el que se formaban, Goldstein los llamó rayos canales. Fue demostrado por el trabajo de W. Wien y J. J. Thomson que la mayor parte de estos rayos canales están formados por átomos positivamente cargados del gas que llena el tubo de descarga, que se mueven en el haz a gran velocidad.
En su viaje a lo largo del haz estas partículas de los rayos canales están chocando constantemente con las moléculas del gas que contiene el tubo, y por tanto sería de esperar que se emitiese luz si la energía cinética es suficientemente grande. Ya en 1902 Stark predijo que las partículas de los rayos canales se volverían luminosas, y que por tanto las líneas del espectro emitidas por ellas deben desplazarse hacia el violeta si los rayos se observan aproximándose al observador. Esto sucede del mismo modo que el desplazamiento de las líneas del espectro de aquellas estrellas que se mueven hacia nosotros, y dado que este desplazamiento, denominado efecto Doppler, aumenta con la velocidad de la fuente de luz, debe ser así posible determinar la velocidad de las partículas de los rayos canales.
En 1905 Stark consiguió por primera vez detectar este fenómeno en un tubo de rayos canales lleno de hidrógeno.
Al lado de cada línea [del espectro] perteneciente a la conocida serie de Balmer apareció una nueva línea más ancha, que se encontraba junto a la original pero en el lado hacia el violeta del espectro si los rayos canales eran observados acercándose al observador, pero hacia el rojo si se observaban desde atrás. El efecto aquí mencionado ha sido observado para los rayos canales de todos los elementos, además del hidrógeno, investigados a este respecto.
El descubrimiento, mediante el cual el efecto Doppler fue observado por primera vez para una fuente de luz terrestre, fue instrumental en la demostración de que las partículas de los rayos canales son átomos luminosos, o iones atómicos. El estudio posterior del efecto Doppler de sus espectros, que ha sido llevado a cabo fundamentalmente por Stark y sus alumnos, ha llevado a resultados extremadamente importantes, no sólo sobre los propios rayos canales, su formación, etc., sino también sobre la naturaleza de los diferentes espectros que un mismo elemento químico puede emitir en diferentes circunstancias.
A lo largo de una de las investigaciones sobre rayos canales en un tubo con hidrógeno que atravesaban un campo eléctrico intenso Stark observó en 1913 un engrosamiento de las líneas del espectro del hidrógeno. Un examen más minucioso de este engrosamiento mostró que las líneas se desdoblaban en varias componentes con características de polarización diferentes. Aunque este desdoblamiento puede observarse mejor en los rayos canales, no tiene nada que ver con el movimiento de los átomos, sino que depende únicamente del hecho de que éstos se encuentran en el interior de un campo magnético terriblemente intenso.
Así, se realizó un descubrimiento análogo al de Zeeman sobre el desdoblamiento de las líneas espectrales utilizando un campo magnético muy intenso, algo que fue ya recompensado con el Premio Nobel por esta Academia.
Este desdoblamiento de líneas espectrales en campos eléctricos ha sido detectado y medido por Stark en el espectro no sólo del hidrógeno, sino también de un gran número de otras sustancias, y el resultado de estas investigaciones ha sido que el efecto que lleva su nombre es muy diferente en varios aspectos del efecto Zeeman, y que la dinámica óptica de los átomos cambia bajo la influencia de un campo magnético de un modo bastante distinto que la de un campo eléctrico.
El efecto descubierto por Stark se ha convertido en algo extraordinariamente importante para la investigación moderna sobre la estructura del átomo, y ha abierto nuevos campos para el estudio del efecto de los iones atómicos unos sobre otros y sobre las moléculas. Las condiciones extremadamente complejas en las que se manifiesta este efecto en las líneas espectrales del hidrógeno y el helio fueron explicadas por una teoría que forma uno de los más sólidos pilares en los que se apoya la concepción moderna sobre la estructura interna del átomo.
A la vista de la enorme relevancia que el trabajo de Stark tiene sobre la investigación física en diversos campos de gran importancia, la Real Academia de las Ciencias considera muy merecido que el Premio Nobel de Física de 1919 sea otorgado a este científico.
Doctor Stark. Nuestra Academia de las Ciencias le ha otorgado el Premio Nobel de Física de 1919 en reconocimiento a su investigación revolucionaria del efecto Doppler en los rayos canales, que nos ha proporcionado una nueva visión sobre la realidad de la estructura interna de átomos y moléculas. El Premio Nobel también abarca su descubrimiento del desdoblamiento de las líneas espectrales en campos eléctricos – un descubrimiento de la máxima importancia científica.
Le pido ahora, Doctor, que reciba el Premio Nobel de manos del Presidente de la Fundación Nobel.

En la próxima entrega de la serie, el Nobel de Química de 1920.

[Matemáticas I] Vectores











En este bloque de repaso de [Matemáticas I] hemos hablado ya sobre variables y expresiones algebraicas, ecuaciones en general, ecuaciones polinómicas en particular, sistemas de ecuaciones, coordenadas cartesianas y rectas.

Al terminar el capítulo dedicado a las rectas hablamos sobre la necesidad de un concepto matemático que indique la dirección de algo de un modo más flexible que la pendiente, y de eso precisamente hablaremos hoy: del concepto de vector, que no sólo incluye la información sobre la dirección de algo sino bastante más.

Pero antes, como siempre, la solución al desafío planteado en la entrada anterior.

Solución al desafío 9Rectas y más rectas



Se nos pedía resolver una serie de problemas cortos. Aunque para cada uno hay más de una manera de llegar a la solución, intentaré elegir la que me parece más didáctica en cada daso (si no has seguido el mismo método, asegúrate de que entiendes éste y que el resultado es el mismo que el tuyo):

1. Encuentra la ecuación de la recta que pasa por los puntos (1,1) y (-4,0).

Puesto que hemos visto cómo resolver sistemas de ecuaciones de manera rápida, hagamos justo eso. La ecuación de una recta cualquiera en el plano es y=mx+n. Por tanto, dado que la recta pasa por (1,1) debe cumplirse, sustituyendo x e y, que

1 = m+n

Pero la recta también pasa por (-4,0), luego haciendo lo mismo tenemos que

0 = -4m+n

No hay más que multiplicar la segunda ecuación por -1 para poder usar la reducción:

1 = m+n

0 = 4m-n

Sumando miembro a miembro,

1 = 5m

Luego m = 1/5. Si volvemos a la primera de las dos ecuaciones,

1 = 1/5 + n

Por lo tanto podemos despejar n (me salto los pasos intermedios, que esto ya lo tienes superado):

n = 4/5

De manera que la ecuación completa de la recta que se pedía es y=x/5+4/5. Una forma más elegante puede obtenerse multiplicando por 5, 5y=x+4.

2. Calcula la pendiente y ordenada en el origen de la recta y4−3x2=12.

Para calcular la pendiente debemos despejar y. Podemos hacerlo en dos pasos que a estas alturas deberían estar superados:

y = 6x+2

Luego la pendiente de la recta es m=6. Respecto a la ordenada en el origen, recuerda que es la ordenada en el punto de corte con el eje y, el resultado de hacer x=0 en la ecuación. En nuestro caso es tan fácil como mirar el valor de n, claro está: n=2.

3. Encuentra la ecuación de la recta paralela a y=−x+2 y que pasa por el punto (-2,-2).

Si es una recta paralela a ésa, tiene la misma pendiente, m=−1. Por tanto, nuestra recta misteriosa será algo así: y=−x+n. Pero ¿cómo calculamos n? No hay más que sustituir las coordenadas del punto que nos dan, (-2,-2):

-2 = -(-2) + n

En otras palabras, n=−4 y la ecuación de la recta que se pide es y=−x−4.

4. Encuentra el punto de corte de la recta y=2x−5 con el eje de abscisas y con el eje de ordenadas.

En el primer caso debemos hacer y=0, que es la ecuación del eje de abscisas. El resultado es 0=2x−5, es decir que tenemos el valor de x, x=5/2. Así, el punto de corte que se pide es (5/2,0).

En el segundo caso no hay más que mirar la ecuación, ya que en esta forma la ordenada en el origen es el término independiente del miembro de la derecha, -5. El punto de corte es, por tanto, (0,−5).

5. Las rectas y=x−1 e y=−2x+1 se cortan en un punto. Además, cada una de las dos corta al eje de abscisas en un punto determinado. Estos tres puntos de corte (ambas rectas entre sí y cada una con el eje de abscisas) definen un triángulo. Calcula el perímetro de ese triángulo.

Aquí ya llegamos a uno de los dos problemas con más chicha. Nos hace falta encontrar los tres puntos de corte que definen el triángulo, lo cual podemos hacer resolviendo sistemas de ecuaciones (intentaré hacerlo de forma concisa).

El primero es el que forman las dos rectas:

y = x-1

y = -2x+1

Resolviendo por reducción,

2y = 2x-2

y = -2x+1

Luego 3y=−1 y por tanto y=−1/3. Si volvemos a la primera ecuación y sustituimos y=−1/3 tenemos que −1/3=x−1 luego x=2/3. Así, el primer punto de corte que nos interesa es (2/3,−1/3).

Afortunadamente encontrar los dos puntos de corte de las rectas con el eje de abscisas (y=0) es más rápido. Para la primera, 0=x−1 luego x=1. El punto es entonces (1,0). Para la segunda, 0=−2x+1 luego x=1/2 y el punto es (1/2,0).

Ya tenemos entonces los tres puntos: (1,0), (1/2,0) y (2/3,−1/3), que definen el triángulo. Pero lo que se nos pide es el perímetro de ese triángulo, es decir, la suma de la medida de los tres lados.

¿Cuánto mide cada lado? ¡La distancia entre cada par de puntos, por supuesto! No tenemos más que calcular las distancias entre ellos y sumar las tres. Afortunadamente ya vimos, al hablar de coordenadas cartesianas, que calcular distancias en el plano cartesiano utilizando Pitágoras es relativamente fácil.

La distancia entre (1,0) y (1/2,0), dado que están ambos sobre el eje de abscisas, es simplemente 1/2 (el valor absoluto de la resta de sus abscisas).

La distancia entre (1,0) y (2/3,−1/3) podemos obtenerla aplicando Pitágoras. La diferencia de abscisas es 1−2/3=1/3, y la diferencia de ordenadas es también 1/3 (recuerda que, para calcular distancias, siempre utilizamos el valor absoluto de esas diferencias).

Por tanto, la distancia entre ambos puntos es √(1/9+1/9)=√(2/9), es decir, √2/3.

La distancia entre el tercer par de puntos, (1/2,0) y (2/3,−1/3) podemos obtenerla del mismo modo. Hazla tú mismo y deberías obtener √5/6.

¡Por fin! Ya sólo nos queda sumar las tres distancias, que es lo que mide cada lado, para obtener el perímetro del triángulo, que es 1/2+√2/3+√5/6, que puede dejarse ligeramente más bonito sacando factor común 1/6, como 1/6(3+2√2+√5).

6. Encuentra la ecuación de la recta perpendicular a y=x+2 que pasa por el origen.

La pendiente de la recta que nos dan es m=1, es decir, es una recta exactamente diagonal, paralela a y=x. Aunque en general sería más difícil obtener una recta perpendicular a ella, recuerda el principio del capítulo sobre rectas: ¡la recta y=−x es perpendicular a y=x!

No sólo eso, sino que cumple la segunda condición: y=−x pasa por el origen, luego ésa es precisamente la recta que se nos pide. No te preocupes si no pudiste obtener la solución a este último problema, ya que con lo que sabías hasta ahora era un poco “de idea feliz”.





Puntos para definir direcciones

Aunque puede que no lo sepas, ya tienes en la cabeza la noción de lo que es un vector, porque básicamente lo hemos visto ya con una pequeña modificación. Permite que volvamos de nuevo a hablar de la representación de un punto en el plano cartesiano y verás de lo que estoy hablando.

Imagina que nos fijamos en un punto cualquiera del plano, como por ejemplo (-2,3). ¿Qué significan esos números según hemos visto ya?

Las coordenadas del punto nos indican cómo llegar a él desde el origen de coordenadas. La abscisa -2 quiere decir que debemos desplazarnos dos unidades en el sentido negativo –hacia la izquierda–, y la ordenada 3 que debemos desplazarnos tres unidades en el sentido positivo de ese eje –hacia arriba– hasta llegar al punto. Es como si nos moviésemos desde el inicio (el origen) hasta nuestro destino (el punto en cuestión) en dos tramos, uno por coordenada, de acuerdo con las instrucciones:

Vectores 1

Pero el resultado final hubiese sido el mismo si nos hubiéramos movido en línea recta desde el origen al punto, rectos como una flecha:

Vectores 1

No hace falta que te diga tampoco cuánto mide exactamente esa flecha, ¿verdad? Todo esto está ya superado. Pero pensemos un poco más en esa flecha que va del origen de coordenadas hasta (-2,3), sobre todo en lo que nos interesa ahora: la flecha define una dirección precisa.

De hecho, si lo piensas es un concepto superior al de pendiente que usamos antes con nuestras rectas. Por un lado, en el caso de una recta vertical (paralela al eje de ordenadas) la pendiente es infinita, pero podríamos tener una flecha vertical descrita con las coordenadas de un punto sin el menor problema:

Vectores 1

Esa flecha define la dirección vertical, paralela al eje de ordenadas, de un modo más eficaz que la pendiente, ya que no involucra ningún infinito. Pero hay más características de nuestros puntos, representados como flechas desde el origen, que los hace mejores que la pendiente.

Por un lado, observa los dos puntos siguientes, ambos situados sobre el semieje positivo de abscisas (luego la dirección para llegar a ambos es exactamente la misma):

Vectores 1

¿Ves la diferencia entre ambos? En ambos casos debemos desplazarnos horizontalmente hacia la derecha para llegar a cada punto, pero en un caso debemos hacerlo mayor distancia que en el otro. Es decir, nuestras flechas no sólo contienen información sobre la dirección de desplazamiento, sino sobre la magnitud de ese desplazamiento.

Finalmente, hemos hecho siempre que la flecha parta del origen de coordenadas, ya que precisamente ése es el modo en el que podemos localizar un punto en el plano cartesiano, pero nada hubiera impedido que la flecha tuviese su origen en otro punto. Imagina, por ejemplo, que tomamos el caso inicial (-2,3) pero no empezamos en el origen, sino un par de unidades más arriba:

Vectores 1

En este caso no he puesto la P junto a las coordenadas, ya que evidentemente la flecha no termina en el punto (-2,3) –termina en (-2,5), pero de eso hablaremos luego–. Pero a cambio de eso hemos ganado una enorme flexibilidad: nuestra flecha ya no tiene su origen en un punto fijo. Al principio, (-2,3) significaba que para alcanzar el final debíamos movernos dos unidades a la izquierda y tres hacia arriba desde el origen de coordendas; pero ahora el (-2,3) indica que debemos desplazarnos dos unidades a la izquierda y tres hacia arriba desde donde quiera que empecemos.

Y lo que acabamos de describir, estimado y paciente lector, es precisamente nuestro objetivo hoy: un vector. Pero hablemos con un poco más de precisión del concepto.

Concepto de vector

En Matemáticas, la definición estricta de lo que es un vector es bastante complicada y abstracta, pero afortunadamente para todos, aquí nos interesa el asunto por su aplicación en Física y dentro de las coordenadas cartesianas, de modo que daremos una definición más de andar por casa y arraigado en la realidad:

Un vector es un segmento orientado.

Dicho más llanamente, un vector no es más que una flecha, como las que hemos visto antes. La propia palabra viene del latín vector, que significa portador.

Hay muchas maneras de definir un vector. Ya hemos visto una de ellas, que es simplemente usar coordenadas, como (1,0) o (-2,3). Otra es dibujarlo en el plano como una flecha. Pero ¿qué características comunes definen un vector independientemente de cómo lo representemos?

Básicamente son dos, aunque en castellano a menudo se desdobla la segunda propiedad para obtener una tercera:

¿Y vectores en tres dimensiones?

En este bloque, ya que nos hemos centrado en el plano cartesiano de dos dimensiones, no hablaremos de otros vectores más raros, sino que nos restringiremos a los de dos coordenadas, abscisa y ordenada. Pero, como puedes imaginar, los hay más complicados. Por ejemplo, un punto en el espacio –no en el plano– no viene definido por un par de coordenadas sino por tres, de modo que existen vectores de tres dimensiones.

¡Pero la cosa no acaba ahí! Hay vectores de más de tres dimensiones: la noción de vector es mucho más abstracta de lo que estamos viendo en estos ejemplos. En mecánica cuántica, por ejemplo, es común emplear vectores de infinitas dimensiones. ¡Toma castaña! Eso sí, asegúrate de que entiendes el concepto concreto y amarrado a la realidad antes de subirte a ramas del árbol demasiado altas.



A veces es también necesario indicar dónde empieza el vector: recuerda que, a diferencia de los puntos en el plano, no tenemos por qué empezar en el origen de coordenadas. Si este dato es relevante, el vector tendrá entonces una propiedad más:

En Física los vectores se utilizan todo el tiempo, porque son utilísimos para definir magnitudes en las que es necesario saber “hacia dónde” y “cuánto” en vez de simplemente “cuánto”. Quiero detenerme un momento en esto, porque es fundamental entenderlo.

Magnitudes escalares y vectoriales

Si queremos saber cuánto dinero tiene alguien, cuánto tiempo ha pasado desde un momento concreto o cuál es la temperatura en un lugar, básicamente lo que necesitamos definir es cuánto: 400 €, 5 s, 200 K. No hay más. Cuando una magnitud es de este tipo se dice que es una magnitud escalar. El origen de la palabra es precisamente el de escala, ya que la medimos como si fuera una escalera con peldaños.

Sin embargo, a menudo es necesario saber no sólo cuánto, sino hacia dónde: la velocidad del viento, la aceleración de un coche, la fuerza ejercida sobre un objeto. No es lo mismo que el viento sople de frente que a nuestra espalda, ni es lo mismo que empujemos una mesa hacia abajo que horizontalmente. Supongo que sabes a dónde quiero llegar.

Lo que nos hace falta en este caso es una magnitud vectorial. Si nos encontramos en el plano, por ejemplo, y el viento es de 5 m/s hacia la derecha, entonces una mejor manera de englobar esa información es decir que el viento es de (5,0) m/s. ¿Ves el poder de los vectores? Decir que el viento es (5,0) m/s nos dice cómo de fuerte es, y que se dirige hacia el este, y nos dice ambas cosas al mismo tiempo.

Si por el contrario nos dicen que el viento es (4,3) m/s, sabemos que es igual de fuerte que antes –5 m/s es el módulo del vector (4,3)– pero que se dirige más o menos hacia el nordeste. Ahora bien, observa otra vez el poder de los vectores: con palabras me cuesta mucho indicar hacia dónde (no es exactamente en la dirección nordeste), mientras que (4,3) m/s tiene absolutamente toda la información de forma muy concisa.


Una magnitud escalar (la temperatura) y una vectorial (la velocidad).

En general, por tanto, si al pensar en una magnitud física es importante saber hacia dónde se dirige, suele ser conveniente usar un vector, y si no lo es basta con usar un escalar –que podríamos definir como un vector de una sola dimensión, claro–. Baste decir que saber operar con vectores es absolutamente fundamental para hacer física. Pero ¿cómo se opera con vectores? La respuesta es que, hasta cierto punto, casi igual que con escalares normales y corrientes.

Más sobre vectores y puntos

En esta entrada hemos utilizado el concepto de punto como ídem de partida para llegar al de vector: como recordarás, la única diferencia ha sido que un vector no tiene por qué empezar en el origen de coordenadas, mientras que para un punto la referencia siempre es ese origen. Dicho de otro modo, hemos llegado del concepto de punto al de vector generalizando el primero.

Pero, ahora que ya estás familiarizado con la noción de vector –o, al menos, eso espero–, podemos hacer justo lo contrario: definir los puntos cartesianos como un tipo específico de vector. Porque eso es exactamente lo que son, claro: un punto es un vector cuyo punto de aplicación es el origen de coordenadas, y cuyas unidades son de distancia (metros, en el Sistema Internacional de Unidades).

Esto puede parecer dar vueltas para llegar al mismo sitio, pero a menudo es más fácil entender un concepto general a partir de otro más concreto y luego mirar hacia atrás para poner todo en perspectiva.



Suma y resta de vectores

Sumar dos escalares es bien fácil: 2+3=5, listo. Pero ¿cómo se suman dos vectores? ¿Es posible definir esa operación para ellos? No sólo es posible, sino que afortunadamente es algo bien simple y fácil. Para ello, pensemos en esos escalares como vectores de una sola dimensión o coordenada. De hecho, pensemos en ellos como puntos: 2 significa dos unidades a la derecha del origen, 3 significa tres unidades a la derecha, etc.

El número 2, visto como un punto de una sola coordenada, indica cómo llegar al punto desde el origen, como siempre: 2 significa “muévete dos unidades hacia la derecha del origen”. Sumar dos escalares, por tanto, no es más que concatenar las instrucciones de cada uno, de modo que las seguimos una tras otra: 2+3 significa “muévete dos unidades a la derecha del origen, y luego muévete tres unidades a la derecha de donde estés”. Hacer eso, evidentemente, es lo mismo que moverse cinco unidades a la derecha directamente, que es la razón por la cual 2+3=5.

Pero ¿y si se trata de vectores de dos dimensiones? Ya hemos hecho algo muy parecido a eso en este mismo artículo. Recuerda este dibujo:

Vectores 5

Como recordarás, estábamos entonces generalizando el concepto de punto hacia el de vector, desplazando el punto de aplicación de (-2,3) desde el origen dos unidades hacia arriba. Pero ¿qué quiere decir “dos unidades hacia arriba” escrito como vector con coordenadas? Es el vector (0,2):

Vectores 6

Fíjate en que los dos vectores concatenados nos van indicando el camino a recorrer: primero hacemos (0,2) hacia arriba, luego (-2,3) hacia la izquierda y hacia arriba, y así llegamos al final. Es algo parecido a lo de antes: 2 unidades hacia la derecha y luego 3 hacia la derecha. Ahora bien, antes vimos que hacer aquello era lo mismo que desplazarnos 5 unidades directamente. ¿No podríamos ahora hacer igual y llegar desde el origen directamente al destino?

Suma de vectores

Ya sabes lo suficiente sobre todo esto para ver de qué vector se trata: es el vector (-2,5), que es el punto de destino de nuestros “vectores concatenados”. Pero concatenar instrucciones es precisamente sumar, de modo que hemos obtenido la suma de los dos:

Suma de vectores

También sabes lo suficiente como para darte cuenta de que no hace falta recorrer todo ese camino para calcular la suma de los dos vectores: las abscisas y las ordenadas, al fin y al cabo, son instrucciones independientes. Basta con concatenar unas por un lado y otras por otro, es decir, sumar las coordenadas cada una por su lado: (0,2)+(−2,3)=(0+(−2),2+3), que lleva por supuesto a (-2,5), el vector suma de ambos.

Por si acaso no ha quedado clara la conclusión práctica, aquí la tienes de un modo más formal:

Cada coordenada del vector suma de dos vectores es la suma de esa coordenada para cada uno de ellos.

Aquí no vamos a meternos en mucho más detalle, pero la suma de vectores cumple todo lo que cumple la suma de escalares; lo más importante de todo, desde luego, la propiedad conmutativa: (0,2)+(−2,3)=(−2,3)+(0,2). De hecho puedes verlo también gráficamente: para llegar al final del camino de antes da igual qué vector recorramos primero y cuál después:

Suma de vectores

Finalmente, no voy a detenerme apenas en la resta de vectores, porque al fin y al cabo una resta no es más que una suma del minuendo y el opuesto del sustraendo: 5-4 es lo mismo que 5+(-4). De modo que si queremos restar dos vectores, por ejemplo (4,5) y (0,2), no hay más que hacer (4,5)+(0,−2)=(4,3). Ahora bien, si sumar un vector a otro significa gráficamente añadir un paso más en el camino de instrucciones, ¿qué es entonces restar?

Piensa en lo que hemos hecho: como queremos restar (0,2) (un vector que, en cuanto a instrucciones, significa “dos unidades hacia arriba verticalmente”), lo hemos convertido en (0,-2), que significa “dos unidades hacia abajo verticalmente”, y lo hemos sumado al anterior, es decir, lo hemos convertido en un paso más tras darle la vuelta.

Dicho de otro modo, restar un vector a otro significa sumarle el opuesto, y el opuesto de un vector no es más que el vector “al revés”, de modo que el origen y el destino de la flecha se invierten.

Pero los vectores tienen mucha más utilidad –y complejidad– detrás. Por ejemplo, hemos hablado del hecho de que el vector (4,3) se dirige más o menos hacia el nordeste (arriba y la derecha) en el plano cartesiano. Podríamos también hallar la pendiente de la recta en esa dirección. Pero hay otra forma más gráfica de indicar su dirección, que es simplemente dar el ángulo que forma con algún eje: en este caso seguro que es un ángulo de menos de 45º con el eje de abscisas, ya que se dirige más “hacia la derecha” que “hacia arriba”.

Y esa descripción con ángulos requiere de algo cuya sola mención provoca escalofríos en muchos alumnos de secundaria: la trigonometría. De ella hablaremos en el siguiente artículo del bloque. Pero antes, lo habitual: recapitular ideas y comprobar que están bien asentadas.

Ideas clave

Para atacar el resto del bloque con garantías deben haberte quedado claros los siguientes conceptos:

Antes de seguir…

Como puedes imaginar, en este caso voy a plantearte algunas preguntas breves sobre vectores, que no requieren demasiado cálculo pero deberían servirte para comprobar si has comprendido bien los conceptos del artículo.

Desafío 10 - Vectores

Responde a las siguientes preguntas. Si es posible, para asentar la conexión entre números y el plano, emplea ambos métodos: dibujos de flechas, rectas, etc., con coordenadas cartesianas. Si no es posible en algún caso, no te preocupes:

1. Calcula el vector que tiene su origen en el punto (2,4) y su final en el origen de coordenadas.

2. Calcula el vector que tiene su origen en el punto (2,4) y su final en el punto (0,-2).

3. Calcula un vector con la misma dirección que el anterior, sentido contrario y el doble de módulo.

4. Calcula el módulo del vector (5,-4).

5. Calcula el vector que se encuentra sobre la recta y = 3x-1, parte del origen de coordenadas, se dirige hacia la derecha y hacia arriba y tiene de módulo 210.

6. Calcula la suma de los vectores de los apartados (2) y (4).

7. Calcula la resta de esos dos mismos vectores.