+ All Categories
Home > Documents > 2015: EL «AÑO DE LA LUZ» ORÍGENES DE LA …obela.org/system/files/LA SEGUNDA REVOLUCIÓN...

2015: EL «AÑO DE LA LUZ» ORÍGENES DE LA …obela.org/system/files/LA SEGUNDA REVOLUCIÓN...

Date post: 20-Apr-2020
Category:
Upload: others
View: 0 times
Download: 0 times
Share this document with a friend
34
2015: EL «AÑO DE LA LUZ» ORÍGENES DE LA SEGUNDA REVOLUCIÓN CIENTÍFICA DEL MUNDO MODERNO (PARTE I) James Clerk Maxwell el hombre que cambió el mundo para siempre. El 20 de diciembre de 2013 la LXVIII Asamblea General de la ONU proclamó el año 2015 como el AÑO INTERNACIONAL DE LA LUZ Y LAS TECNOLOGÍAS BASADAS EN LA LUZ. La Resolución 2015, fue traducida desde entonces a todos los idiomas oficiales de la ONU. Poco puede entenderse del mundo de la vida contemporánea si se desconoce la revolución científica que la originó a mediados del siglo XIX. El año 2015 se cumplió el 150 aniversario de la publicación del legendario artículo del físico escocés James Clerk Maxwell: A Dynamical Theory of the Electromagnetic Field [1865]. También se cumplió el bicentenario de las contribuciones de Augustin-Jean Fresnel a las ecuaciones ondulatorias de la teoría de la luz en 1815 y 110 años del artículo Sobre un punto de vista heurístico concerniente a la producción y transformación de la luz” sobre el efecto fotoeléctrico (1905) 1 de un joven físico alemán, Albert Einstein. Se cumplieron igualmente los cincuenta años del descubrimiento de la Radiación Cósmica de fondo por Arno Penzias y Robert Wilson y del descubrimiento de la Transmisión de luz por fibras ópticas para comunicaciones, por Charles Kuen Kao (ambos de 1965). 1 EINSTEIN, A. (1905): “Über einen die Erzeugung und Verwandlung des Lichtes betreffenden heuristischen Gesichtspunkt” (Sobre un punto de vista heurístico concerniente a la producción y transformación de la luz). En Annalen der Physik 17, 132-148. Versión inglesa en: Beck (1989), 86-103.
Transcript
Page 1: 2015: EL «AÑO DE LA LUZ» ORÍGENES DE LA …obela.org/system/files/LA SEGUNDA REVOLUCIÓN CIENTÍFICA...al español en: Encuentros y conversaciones con Einstein y otros ensayos.

2015: EL «AÑO DE LA LUZ»

ORÍGENES DE LA SEGUNDA REVOLUCIÓN CIENTÍFICA

DEL MUNDO MODERNO (PARTE I)

James Clerk Maxwell el hombre que cambió el mundo para siempre.

El 20 de diciembre de 2013 la LXVIII Asamblea General de la ONU proclamó el año

2015 como el AÑO INTERNACIONAL DE LA LUZ Y LAS TECNOLOGÍAS BASADAS

EN LA LUZ. La Resolución 2015, fue traducida desde entonces a todos los idiomas

oficiales de la ONU.

Poco puede entenderse del mundo de la vida contemporánea si se desconoce la revolución

científica que la originó a mediados del siglo XIX. El año 2015 se cumplió el 150

aniversario de la publicación del legendario artículo del físico escocés James Clerk

Maxwell: A Dynamical Theory of the Electromagnetic Field [1865].

También se cumplió el bicentenario de las contribuciones de Augustin-Jean Fresnel a las

ecuaciones ondulatorias de la teoría de la luz en 1815 y 110 años del artículo “Sobre un

punto de vista heurístico concerniente a la producción y transformación de la luz” sobre el

efecto fotoeléctrico (1905)1 de un joven físico alemán, Albert Einstein.

Se cumplieron igualmente los cincuenta años del descubrimiento de la Radiación Cósmica

de fondo por Arno Penzias y Robert Wilson y del descubrimiento de la Transmisión de luz

por fibras ópticas para comunicaciones, por Charles Kuen Kao (ambos de 1965).

1 EINSTEIN, A. (1905): “Über einen die Erzeugung und Verwandlung des Lichtes betreffenden heuristischen Gesichtspunkt” (Sobre un

punto de vista heurístico concerniente a la producción y transformación de la luz). En Annalen der Physik 17, 132-148. Versión inglesa

en: Beck (1989), 86-103.

Alberto Di Franco
Resaltado
Alberto Di Franco
Resaltado
Page 2: 2015: EL «AÑO DE LA LUZ» ORÍGENES DE LA …obela.org/system/files/LA SEGUNDA REVOLUCIÓN CIENTÍFICA...al español en: Encuentros y conversaciones con Einstein y otros ensayos.

Número de Annalen der Physik 17, 132-148, en el que se publicó el artículo de Einstein sobre el efecto fotoeléctrico

Las aplicaciones de la ciencia y la tecnología de la luz son esenciales para entender la

segunda gran revolución industrial que esta produjo en todo el mundo en la segunda mitad

del siglo XIX.

El acceso masivo a la información y las comunicaciones, desde el lejano telégrafo, la radio

y la telefonía sin hilos, hasta la televisión y el paradigmático internet, fueron apenas unos

cuantos resultado de esta revolución científica y social.

Hasta las tecnologías más domésticas y cotidianas como los teléfonos móviles, el control

remoto que usamos para ver la televisión, oír música o calentar la comida en el microondas,

las nuevas fuentes de energías renovables y eficientes que limitaron el despilfarro y

redujeron la contaminación de la energía producida del carbón, la madera y el petróleo.

La revolución de los nuevos materiales como la fibra óptica, los cambios en la minería

tradicional, en la construcción, en la industria automotriz, en la aviación y los viajes

espaciales, en la arquitectura, la arqueología, en el arte y la cultura de masas como el

cinematógrafo, entre tantas otras cosas que configuran en su conjunto el mundo actual.

La misma formulación matemática de la estructura ONDULATORIA de la luz propuesta

inicialmente por Christian Huygens, Thomas Young2 y formulada por Agustín Fresnel en

1815, culminó en apenas 50 años con el desarrollo de la teoría electromagnética de la

propagación de la luz (o Teoría del Campo Unificado) formulada por el físico Escocés

James Maxwell en 1865.

Fue a estas ecuaciones, a las que el científico holandés Hendrik Antoon Lorentz introdujo

en 1900 un conjunto de transformaciones “grupo de Lorentz” bajo el cual las ecuaciones

de Maxwell adquirieron consecuencias imprevisibles que condujeron a la Teoría

Generalizada de la Relatividad y al nacimiento de la Física Cuántica durante el siglo XX.

2 El denominado experimento de la doble rendija, fue realizado en 1801 por Thomas Young - Físico, médico y egiptólogo británico-, en

un intento de discernir sobre la naturaleza corpuscular u ondulatoria de la luz. Young comprobó un patrón de interferencias en la luz procedente de una fuente lejana al difractarse en el paso por dos rejillas, resultado que contribuyó a la teoría de la naturaleza

ondulatoria de la luz.

Page 3: 2015: EL «AÑO DE LA LUZ» ORÍGENES DE LA …obela.org/system/files/LA SEGUNDA REVOLUCIÓN CIENTÍFICA...al español en: Encuentros y conversaciones con Einstein y otros ensayos.

Hendrik Antoon Lorentz

Tales modificaciones cambiaron nuestra visión del mundo y nuestro mismo PARADIGMA

FILOSÓFICO CONTEMPORÁNEO DE CIENCIA de una manera radicalmente diferente

al PARADIGMA MECANICISTA MODERNO de ciencia fundado por Copérnico,

Galileo, Descartes y Newton.

Se puede resumir este cambio, en la célebre observación de Werner Heisenberg en 1979:

“El influjo más fuerte sobre la Física y la Química de los últimos siglos lo

ejerció sin duda la doctrina atómica de Demócrito […] Hoy, lo que

realmente hace falta es un cambio en los conceptos fundamentales.

Tendremos que abandonar la filosofía de Demócrito y el concepto de

partícula elemental. Y en su lugar deberíamos aceptar el concepto de

simetrías fundamentales que deriva de la filosofía de Platón […] No creo

que aparte de este cambio conceptual vaya a haber ninguna otra ruptura

espectacular”3.

«SOLO EXISTEN LOS ÁTOMOS»

Desde su nacimiento, la mecánica moderna dio la respuesta de Demócrito como método de

investigación y de explicación científica: “Por convención es lo dulce y lo amargo, lo

caliente y lo frío, por convención es el color; en realidad solo existen los átomos y el

vacío”.

El atomismo no era, por supuesto, una tesis filosófica novísima, ni específicamente

moderna. Fue sostenida primero por los pitagóricos, que identificaron la unidad mínima de

los números enteros positivos con el punto geométrico.

La paradoja matemática estalló con el célebre Teorema de Pitágoras: cualquier dimensión,

por mínima que sea, es siempre divisible ad infinitum, dando lugar a lo que los griegos

llamaron “números irracionales” imposibles de expresar en números enteros positivos.

Como mostraron las aporías de Zenón, el atomismo resultaba contradictorio con la

experiencia sensible y absurdo por la vía inteligible.

Leucipo y Demócrito, reformularon la ontología atomista matemática del pitagorismo y le

dieron su forma fisicalista clásica. No definieron el átomo por su dimensión geométrica,

3 Werner Heisenberg; «Tradition in Science». Science and Public Affairs-Bulletin of the Atomic Scientists, 29, N° 10, p. 410 [1973]. Trad

al español en: Encuentros y conversaciones con Einstein y otros ensayos. Madrid, 1979, Alianza Editorial, pp. 23-24 y 89-90.

Page 4: 2015: EL «AÑO DE LA LUZ» ORÍGENES DE LA …obela.org/system/files/LA SEGUNDA REVOLUCIÓN CIENTÍFICA...al español en: Encuentros y conversaciones con Einstein y otros ensayos.

sino a partir de una propiedad física, teórica y empíricamente evidente: su

impenetrabilidad4.

Del hecho, de que dos cuerpos no pueden ocupar un mismo lugar se sigue que deben existir

unidades mínimas absolutamente densas, simples (sin partes) y por tanto indivisibles e

inmutables. Así los describe Lucrecio en el Lib I, versos 599-614 de su Rerum natura:

como “sólidos y simples”.

Una sola pregunta quedaba en pie: ¿Cuál era el origen causal del movimiento de los

átomos? ¿Tenía que existir algo más aparte de los átomos y el vacío? ¿Un vórtice o

torbellino inicial –como sostuvo Descartes que suplantara una causa metafísica final al

desencadenar las interacciones atómicas y la formación de todos los cuerpos compuestos

conocidos?

GALILEO

Galileo fue quien formuló el primer axioma o principio de la MECÁNICA TEÓRICA

MODERNA (luego consagrado por Newton como Primera Ley de la Física o Ley de la

Inercia) en su obra de 1638 Consideraciones y demostraciones matemáticas sobre dos

nuevas ciencias5.

Con ella buscó independizar la Física de todo supuesto Metafísico respecto a una primera

causa externa, así como de la paradoja de la infinita divisibilidad de cualquier magnitud

matemática (como los pitagóricos) o geométrica (como la de “extensión” de Descartes)

positiva.

Galileo formuló una PROPIEDAD FÍSICA INTRÍNSECA DE UN CUERPO AISLADO,

que denominó Gravedad (gravitá)6. Definió la gravedad como la “cantidad de masa

inercial” que posee un cuerpo para ser tal (cantidad que vulgarmente designamos como

“peso”)7.

En la medida que la masa es constante e invariante, origina el movimiento más simple,

natural y espontáneo: el movimiento uniforme y rectilíneo que caracteriza el movimiento

inercial, como el de la caída de un cuerpo en un espacio vacío, independientemente de su

relación con otro.

4 Kirk G. S., J.E. Raven y M. Schofield; Los filósofos presocráticos, Historia, Crítica con selección de textos, BHF 63, Ed. Gredos,

Madrid, 1987, pp. 566 y 567. 5 Galileo Galilei; Consideraciones y demostraciones matemáticas sobre dos nuevas ciencias. Madrid, 1981, Editora Nacional, pp. 93, y

97-101. 6 “…un cuerpo pesado tiene, por naturaleza, un principio intrínseco que lo mueve hacia el centro común de los graves (hacia el centro de

nuestro globo terrestre) con movimiento continuamente acelerado y siempre igualmente acelerado en tiempos iguales […] con la condición de que se eliminen todos los obstáculos accidentales y externos.” Galileo Galilei; Consideraciones…, op. cit. pp. 164-165.

7 Aunque el término “peso” (el que medimos con una balanza) técnicamente se refiere a la “masa gravitacional” y no a la inercial.

Page 5: 2015: EL «AÑO DE LA LUZ» ORÍGENES DE LA …obela.org/system/files/LA SEGUNDA REVOLUCIÓN CIENTÍFICA...al español en: Encuentros y conversaciones con Einstein y otros ensayos.

El movimiento inercial en un espacio vacío no requiere de una explicación causal o

teleológica (no necesita de “causas primeras”, “causas ocultas” o “lugares naturales”), es

simplemente la consecuencia de una propiedad intrínseca de un “cuerpo” o de un “sistema

mecánico” de poseer masa.

En un sistema mecánico, todos los demás movimientos son variables del movimiento

inercial y no serían sino un producto de la acción directa de otro cuerpo (por choque), o

por rozamiento (una superficie) u oscilación de un medio (aire, agua, gases, etcétera), que

pueden desviarlo, acelerarlo, desacelerarlo, curvarlo, dando lugar a todos los movimientos

compuestos.

Galileo demostraba la composición de los movimientos curvos con el ejemplo de la

parábola que describía la trayectoria de un proyectil, análoga a la trayectoria que describía

una bola que se desliza por un plano inclinado. En consecuencia, todo movimiento solo

puede ser descrito y explicado en términos locales y por acción directa, descartando todo

tipo de “causas ocultas” o “acciones a distancia”.

La centralidad del concepto de masa, abrió pronto otro enigma: ¿Qué es el vacío? ¿Cómo

puede existir algo donde no hay” nada”? ¿Es un sinsentido postular la existencia de la

nada? Peor aún, sugerir que tiene la propiedad física material de “extensión” (¿de la nada?).

Descartes otro de los padres del mecanicismo se dio cuenta de esta aporía instalada en la

primera ley de la mecánica moderna. Solo quedaban dos posibilidades: 1. Eliminar la

hipótesis del vacío. Pero ello traería abajo el principio de inercia que lo presupone y con

ello el derrumbe de todo el sistema teórico mecanicista construido sobre dicho principio, o,

2. Añadir otro principio independiente que lo complemente para explicar las interacciones

entre los cuerpos que no se derivan del principio inercial.

Según el propio Descartes, la hipótesis del vacío, “tomada en la acepción de los filósofos,

esto es, como aquello en que no hay absolutamente sustancia alguna”. Resulta

contradictorio afirmar “que hay extensión de la nada… pues cuando nada hay entre dos

cuerpos, es forzoso que se toquen mutuamente”8.

A partir de esta crítica, Descartes va a elaborar la conjetura de la existencia de una “materia

sutil" o “éter” que llenaría el espacio aparentemente vacío entre los cuerpos. Este plenum

permitiría explicar interacciones como la gravitatoria, existentes entre los planetas, que

suponemos están separados por inmensos espacios vacíos, sin tener que postular

inexplicables “interacciones a distancia” a través del espacio vacío.

8 Descartes, René; Los principios de la filosofía. Buenos Aires, 1951, Losada, “Segunda parte”, pp. 44-45.

Page 6: 2015: EL «AÑO DE LA LUZ» ORÍGENES DE LA …obela.org/system/files/LA SEGUNDA REVOLUCIÓN CIENTÍFICA...al español en: Encuentros y conversaciones con Einstein y otros ensayos.

Pero el costo de esta hipótesis era demasiado alto, pues sacrificaba el principio del

movimiento inercial y tampoco se presentaba como una hipótesis con mayor respaldo

empírico que la del vacío.

NEWTON

Newton, en un principio, vio con cierta simpatía la hipótesis cartesiana. En una carta a

Boyle –fechada el 28 de febrero de 1678- expone sus simpatías por la hipótesis cartesiana:

Supongo que existe una sustancia etérea difundida por todas partes, capaz de

contraerse o dilatarse, sumamente elástica… muy parecida al aire… pero

mucho más sutil […] cuando dos cuerpos se aproximan… el éter entre ambos

comienza a rarificarse […] finalmente… el exceso de presión del éter externo

[…] es tan grande como para vencer la resistencia que tienen los cuerpos a

entrar en contacto […] ese exceso de presión los juntará con violencia y hará

que se adhieran mutuamente9.

Todavía en su carta a Bentley del 25 de febrero de 1692 resumió el motivo de su decisión:

Que la gravitación sea innata, intrínseca y esencial a la materia, de suerte que

un cuerpo pueda actuar sobre otro a distancia, a través del vacío, sin la

mediación de ninguna otra cosa a través de la cual su acción pueda pasar de uno

a otro, me parece a mí un absurdo tan grande que no creo que hombre alguno

que piense con sensatez en materias filosóficas pueda jamás caer en él10.

Pero, rodeado en la Roya Society de un ambiente baconiano radicalmente experimentalista

y hostil a toda especulación metafísica, optó finalmente por la segunda y formuló la ley de

gravitación como un axioma independiente, que no se deducía del principio inercial.

Hasta aquí hemos explicado los fenómenos de nuestro cielo y nuestro mar

como fuerza gravitatoria, pero no hemos asignado aún causa a esa fuerza […] ni

voy a fingir hipótesis, pues las hipótesis metafísicas carecen de lugar en la

filosofía experimenta Ya es bastante que la gravitación realmente exista y actúe

con arreglo a las leyes que hemos expuesto […]. Podríamos adelantar algo

sobre cierto espíritu sutilísimo por cuya fuerza y acción las partículas de los

cuerpos se atraen unas a otras cuando se encuentran a escasa distancia […] Pero

no disponemos de la cantidad suficiente de experimentos para determinarlo con

precisión y demostrar mediante qué leyes opera este espíritu eléctrico y

elástico11.

9 Newton Isaac; Selección de textos. Bs. As. 1943, Espasa-Calpe, pp. 92-95. 10 Citado por R. G. Collingwood; Idea de la naturaleza. México, 1950, FCE, pp. 170-71. 11 Newton, Isaac; Principios matemáticos de la filosofía natural y su sistema del mundo. Madrid, 1982, Editora Nacional, pp. 816-817.

Page 7: 2015: EL «AÑO DE LA LUZ» ORÍGENES DE LA …obela.org/system/files/LA SEGUNDA REVOLUCIÓN CIENTÍFICA...al español en: Encuentros y conversaciones con Einstein y otros ensayos.

Newton optó por preservar el principio de inercia de Galileo (Primera ley del Movimiento).

Con ello preserva la extraña y paradójica hipótesis del espacio vacío o absoluto (in it self)

carente de masa, que presupone el movimiento inercial uniforme y rectilíneo.

A partir de estos de estos dos elementos deduce la Segunda ley del movimiento, o variación

del estado inercial primitivo, resultando por composición o “suma de movimientos” que

remite a la aceleración que otro cuerpo o fuerza le imprime en la misma dirección del

movimiento inercial, que se obtiene multiplicando la masa de un cuerpo (K=m x v) por la

velocidad.

La tercera ley del movimiento, (acción y reacción) plantea la inversa: a toda acción de un

cuerpo sobre otro en sentido contrario de su dirección inercial, le corresponde una reacción

igual y en sentido contrario equivalente a la masa inercial o “resistencia al cambio de su

inercia”. A su vez, cuando una fuerza o cuerpo externo modifica la velocidad y dirección

del movimiento de un cuerpo por choque o resistencia de un medio (rozamiento),

dependiendo del punto de contacto, se deducen un conjunto de trayectorias curvadas.

A continuación procedió a añadir un nuevo principio independiente que denominó fuerza

gravitatoria, para describir todas las variables interacciones físicas en términos relativos a

las proporciones espaciales (distancias entre los cuerpos) y la cantidad de masa de un

cuerpo en movimiento, desde las mareas hasta los planetas.

EL ENIGMA DE LA «ACCIÓN A DISTANCIA»

Todavía a fines del siglo XVIII (1796), el viejo Kant admitía que si bien «el sistema de la

gravitación universal de newton se mantiene, conlleva la dificultad de no poder explicar

cómo es posible la acción a distancia»12.

En la mecánica todos los fenómenos del mundo físico pueden explicarse como resultado de

las múltiples interacciones entre cuerpos materiales en movimiento: a) el movimiento lineal

o inercial con un solo grado de libertad b) el movimiento por choque y dispersión de

cuerpos materiales y c) el movimiento por oscilaciones pequeñas de un medio en las

proximidades de su posición de equilibrio estable.

Así, el comportamiento de los tres estados básicos de la materia puede ser descrito de la

siguiente manera: el sólido como un conjunto discreto de partículas materiales que

mantienen entre si distancias invariantes. Un líquido puede ser descrito por las oscilaciones

de un medio en las proximidades de cierto rango de dispersión de sus partículas que le

permiten un cierto grado de equilibrio.

Un gas, puede ser descrito como una enorme congregación de partículas materiales que por

múltiples choques y dispersión de sus partículas no mantienen distancias invariantes. La

mecánica estadística permite trazar una media del incremento de la energía cinética (que

vulgarmente denominamos “calor”) que dichas interacciones aparentemente desordenadas

originan. Este procedimiento permite entonces calcular estadísticamente las variaciones en

conjunto de la estructura y movimiento de dicho sistema mecánico.

La Ley de gravitación de Newton permitió generalizar el modelo de explicación

mecanicista como interacciones lineales entre cuerpos materiales a todos los ámbitos del

12 Kant Enmanuel; Principios metafísicos de la ciencia de la naturaleza. Madrid, 1989, Alianza Editorial, p. 41.

Page 8: 2015: EL «AÑO DE LA LUZ» ORÍGENES DE LA …obela.org/system/files/LA SEGUNDA REVOLUCIÓN CIENTÍFICA...al español en: Encuentros y conversaciones con Einstein y otros ensayos.

mundo físico, sea por acción directa (choque, rozamiento u oscilación de un medio) o por

acción a distancia, que suponía la hipótesis de vacío.

La mecánica clásica –según Einstein– sugiere la conjetura de que todos los fenómenos

pueden explicarse por la acción de fuerzas de atracción o repulsión, la cual depende

únicamente de la distancia y obra entre partículas invariantes13.

Fue así como el físico francés Charles-Agustin de Coulomb, elaboró el principio

fundamental de la electrostática o ley de Coulomb (1785), estableciendo que la fuerza de

atracción (o repulsión) entre dos cargas eléctricas puntuales de distinto (o igual) signo es

directamente proporcional al producto del valor de sus cargas e inversamente proporcional

al cuadrado de la distancia que las separa:

Thomas Young Coulomb Alessandro Volta

La primera pila eléctrica (llamada desde entonces PILA VOLTAICA), fue dada a conocer

por el científico italiano Alessandro Volta en 1800 mediante una carta que envió al

presidente de la Royal Society londinense. Inició la era eléctrica en que vivimos y la

investigación experimental de la mecánica de funcionamiento físico de las leyes de

Coulumb.

La pila estaba conformada por una serie de pares de discos (apilados) de zinc y cobre,

separados unos de otros por trozos de cartón que medían unos 3cm de diámetro. Las placas

eran de diferente potencial, la de cobre tenía más alto potencial que la de zinc y ambas

estaban sumergidas en dos recipientes llenos de una solución acuosa de ácido sulfúrico,

unidas por un alambre conductor.

De acuerdo con las leyes de Coulumb, debería producirse un flujo eléctrico de una a otra,

hasta anular la diferencia de potencial y al establecerse el equilibrio debía cesar todo el fujo

eléctrico.

NUEVA PIEZA DEL ROMPECABEZAS

Pero resultó que sus cargas se restablecían continuamente después de cada descarga

creando una carga ilimitada que perpetuaba el flujo eléctrico, cuando, según las leyes de

Coulumb –tratándose de un sistema aislado este debía agotarse y cesar. Era como si de

pronto el flujo eléctrico adquiriese vida propia, independientemente de la fuente emisora

material.

Más aún, el flujo eléctrico generaba también una notable cantidad de calor, que nadie había

asociado a la electricidad, lo que implicaba una triple transformación de energía química en

13 Einstein Albert y L. Infield; La física aventura del pensamiento…, Buenos Aires, 1945, Losada S. A., p.81.

Page 9: 2015: EL «AÑO DE LA LUZ» ORÍGENES DE LA …obela.org/system/files/LA SEGUNDA REVOLUCIÓN CIENTÍFICA...al español en: Encuentros y conversaciones con Einstein y otros ensayos.

eléctrica y de esta en calorífica. Las que eran consideradas como entidades independientes

solo eran momentos de un flujo continuo.

El método mecanicista se extendió también al magetismo, fenómeno que se explicaba por

la interacción proporcional entre dos polos magneticos. Al situar la aguja imantada de una

brújula en las proximidades del hilo conductor de un circuito eléctrico por el que fluye

corriente, la brújula abandona su posición norte sur para reorientarse en una dirección

perpendicular al hilo. Esta sencilla experiencia, realizada por el físico danés Hans Christian

Oersted en 1819, ofreció la primera prueba de la relación entre la electricidad y el

magnetismo.

De ello se deduce que las cargas eléctricas en movimiento generan en el espacio

circundante un campo eléctrico y otro magnético de dirección perpendicular al anterior. No

se trataba entonces de una interacción lineal simple, sino que las fuerzas electromagnéticas

describían todo un “campo difuminado” alrededor de los cuerpos materiales.

De manera que el campo no es creado por el cuerpo mismo sino por el movimiento de la

carga eléctrica, dependiendo de la velocidad de la corriente, independientemente del cuerpo

material estático que la produce.

A los experimentos de Oersted se añadieron en 1831 los experimentos del físico inglés M.

Faraday, que demostraron el proceso inverso. La ley de inducción electromagnética de

Faraday estableció que el voltaje inducido en un circuito cerrado es directamente

proporcional a la rapidez con que cambia en el tiempo el flujo magnético. De manera que

las variaciones en la intensidad del campo electromagnético no dependen de la distancia

entre dos cuerpos materiales sino de la velocidad de las cargas electromagnéticas. Se

trataba de un proceso físico realmente autónomo de los cuerpos con masa.

Fizeau Orsted Faraday Joule

Finalmente, el físico británico James Prescott Joule que en 1843 extendió el mismo

formalismo en la Ley de transformación de la energía eléctrica en energía calorífica, según

la cual, la cantidad de calor producida en un conductor al paso de la corriente eléctrica es

directamente proporcional a la resistencia del mismo conductor e inversa al cuadrado de la

intensidad, por el tiempo de duración de la corriente inducida

[E= (V2/R) x t]

Hacia la culminación de la primera mitad del siglo XIX la investigación de los fenómenos

luminosos y ópticos, desde los pioneros trabajos de Huygens (un contemporáneo de

Page 10: 2015: EL «AÑO DE LA LUZ» ORÍGENES DE LA …obela.org/system/files/LA SEGUNDA REVOLUCIÓN CIENTÍFICA...al español en: Encuentros y conversaciones con Einstein y otros ensayos.

Newton), Young, Fresnel, Fizeau14 y muchos otros, los había ido alejando progresivamente

de la concepción corpuscular de la mecánica newtoniana, conduciéndolos progresivamente

a una concepción ondulatoria de la estructura de la luz (vibración de un medio) de manera

análoga al sonido (que suponía la vibración del aire).

Pero esta analogía era muy limitada, pues a diferencia del sonido, la luz se desplazaba en

inmensos espacios vacíos, como en el caso de la luz solar y otros cuerpos celestes.

Resultaba entonces un absurdo suponer la “vibración del vacío”. pero tampoco se tenía

como justificar su propiedad ondulatoria, como vibración hipotética de un “eter luminoso”

que aparecía como una pieza del rompecabezas que no se sabía exactamente como encajaba

en el conjunto de la física mecanicista.

Agustín Fresnel

Peor aún, la estructura ondulatoria, depende de la densidad del medio vibrante para su

interpretación física. Un medio extremadamente fino y sutil (casi indistinguible del vacío)

correspondería necesariamente a un tipo vibratorio de onda longitudinal.

Pero las investigaciones del matemático francés Agustín Fresnel sobre la disfracción de la

luz entre 181515 y 1818, lo llevaron a confirmar experimentalmente la exactitud de su

integral que suponían la estructura ondulatoria “transversal” y no longitudinal de las ondas

de luz.

La integral de Fresnel permitió calcular experimentalmente los patrones de difracción

generados por obstáculos y aberturas y explicar de forma satisfactoria la propagación

14 Hippolyte Fizeau (1819- 1896) concretó en 1849 un experimento clásico. Al hacer pasar la luz reflejada por dos espejos entre los

intersticios de una rueda girando rápidamente, determinó la velocidad que podría tener la luz en su trayectoria, que estimó

aproximadamente en 300.000 km./s. Después lo siguió su colaborador León Foucault (1819 – 1868) al medir la velocidad de propagación de la luz a través del agua. Ello le iba a servir de criterio entre la teoría corpuscular y la ondulatoria. La primera, requería

que la velocidad fuese mayor en el agua que en el aire. En sus experimentos, Foucault logró comprobar en 1851, que la velocidad de la

luz en el agua es inferior a la que desarrolla en el aire. Con esto la teoría ondulatoria adquiere preeminencia sobre la corpuscular, y pavimenta el camino hacia la gran síntesis realizada por Maxwell.

Leer más: http://www.monografias.com/trabajos5/natlu/natlu.shtml#ixzz3vqgufCV8

15 En 1815 Agustín Fresnel publicó el artículo «Premier Mémoire sur la Diffraction de la Lumière».

Page 11: 2015: EL «AÑO DE LA LUZ» ORÍGENES DE LA …obela.org/system/files/LA SEGUNDA REVOLUCIÓN CIENTÍFICA...al español en: Encuentros y conversaciones con Einstein y otros ensayos.

rectilínea en medios homogéneos, eliminando así la objeción principal de Newton para la

teoría ondulatoria.

Representación de onda electromagnética polarizada plana. Campos eléctricos (E) y magnético (B) están en fase, perpendiculares entre si

y a la dirección de propagación de la onda. Fuente: Investigación y Ciencia. Ed. española de Scientific American.2009 abril 2816.

También permitió describir con exactitud el fenómeno de la polarización, comprobando que

dos luces cuyas polarizaciones son perpendiculares no interfieren, por lo que concluyó que

la luz era una onda transversal. Es decir, presuponían un medio tan denso como una

gelatina.

LA OTRA MITAD DEL MUNDO: LA ELECTRODINÁMICA

Como consecuencia de las investigaciones brevemente reseñadas en este artículo, a

mediados del siglo XIX aparece entre los cuerpos materiales (allí donde la mecánica

newtoniana registraba un vacío absoluto), la realidad del campo electromagnético, como

una realidad autónoma que nadie había detectado y llenaba todo el espacio circundante de

los cuerpos materiales.

Este proceso culminó en 1865, hace 150 años, cuando el físico escocés James Clerk

Maxwell llevó adelante la hazaña de sintetizar en un solo sistema de ecuaciones,

independientes de las ecuaciones de la relatividad de Galileo, las leyes que rigen el campo

electromagnético unificado. A partir de este momento cambió irreversiblemente nuestra

mirada del mundo.

Durante una de las visitas que Albert Einstein realizó a Cambridge (Inglaterra), alguien le

señaló que había llegado tan lejos solo porque se subió a los hombros de Newton. Einstein

le replicó tajante: «Eso es falso. Yo me subí en los hombros de Maxwell».

La Teoría del Campo Unificado de Maxwell implicaba una estructura legal completamente

distinta a las ecuaciones de la mecánica. El procedimiento analítico de la Mecánica

privilegiaba el rol determinante de las entidades (invariantes) sobre las interacciones

16 Ángel Gozález Ureña;«Descubrimiento de las ondas de Radio: la confirmación de la Teoría Electromagnética». En: http://www.investigacionyciencia.es/blogs/fisica-y-quimica/10/posts/descubrimiento-de-las-ondas-de-radio-la-confirmacin-de-la-teora-

electromagntica-10186 .

Page 12: 2015: EL «AÑO DE LA LUZ» ORÍGENES DE LA …obela.org/system/files/LA SEGUNDA REVOLUCIÓN CIENTÍFICA...al español en: Encuentros y conversaciones con Einstein y otros ensayos.

variables; la Electrodinámica privilegia el papel determinante de las relaciones abstractas o

sistémicas (campo) sobre las entidades.

En esta inversión metodológica parece residir esencialmente el cambio de paradigma de la

ciencia contemporánea. Se trata de leyes estructurales que describen relaciones sistémicas y

no en función de entidades. No relacionan objetos en función de distancias sino una

sucesión de acontecimientos y transformaciones en el tiempo.

Las ecuaciones de Maxwell nos permiten seguir algo así como LA HISTORIA DEL

CAMPO, no solo en el formalismo sino también en la interpretación física, pues nos

introduce a la historia del sistema de relaciones y no a la historia de las cosas o individuos.

La red de interacciones electromagnéticas, son más reales que los cuerpos que poseen

masa. El campo unificado es como una especie de nube o engrudo donde los cuerpos que

poseen masa constituyen apenas algunos grumos del engrudo.

El trabajo de Maxwell se desarrolló entre 1856 («On Faraday's Lines Of Force»17), 1861

("On Physical Lines of Force") y 1865 ("A Dynamical Theory of the Electromagnetic

Field”)18 y culminó en 1873 con su Treatise on Electricity and Magnetism, donde revisó

sus papeles y reunió los resultados de 17 años de investigación.

Treatise on Electricity and Magnetism [1873]

Cuando Maxwell, publicó en 1865 su trabajo A Dynamical Theory of the Electromagnetic

Field acababa de cumplir 34 años. Envió previamente un breve resumen del mismo a la

Royal Society el 27 de octubre de 1864. Una primera versión del trabajo fue leída por

Maxwell ante esta sociedad el 8 de diciembre de ese año. Una vez que Maxwell concluyó el

artículo, lo remitió el 23 de marzo de 1865 a George Stokes, Secretario de Ciencias Físicas

de la Royal Society y tras varias revisiones fue aceptado el 15 de junio de 1865 para su

publicación.

Tal como reseñamos, ya se conocían muchas leyes individuales sobre el comportamiento de

la Electricidad, de la luz y del Magnetismo, pero no se tenía una teoría formal que explicara

de manera unificada los fenómenos de naturaleza electromagnética conocidos. 17 J. Clerk Maxwell; Transactions of the Cambridge Philosophical Society. Vol. X, Part I, 1856, feb.11, pp. 158-209. 18 J. Clerk Maxwell; Philosophical. Transaction.of the Royal. Society. London. 1865. N° 155, pp. 459-512, published 1 January 1865.

Page 13: 2015: EL «AÑO DE LA LUZ» ORÍGENES DE LA …obela.org/system/files/LA SEGUNDA REVOLUCIÓN CIENTÍFICA...al español en: Encuentros y conversaciones con Einstein y otros ensayos.

Maxwell propuso inicialmente veinte ecuaciones que denominó “ecuaciones generales del

campo electromagnético” y que relacionan veinte variables que rigen el comportamiento de

la interacción electromagnética. El artículo consta de 53 páginas y contiene siete partes y en

su conjunto proporcionan una base teórica completa para el tratamiento de los fenómenos

electromagnéticos clásicos.

No fue hasta 1884 cuando Oliver Heaviside (1850-1925)19, utilizando Análisis Vectorial

redujo las 20 ecuaciones del campo electromagnético a las cuatro ecuaciones en forma

vectorial que conocemos hoy en día.

Oliver Heaviside (1850-1925)

Fue precisamente la visión de conjunto lo que permitió a Maxwell reunir todos los

resultados parciales acumulados previamente en un todo armonioso: La ley de Gauss del

campo eléctrico20, la ley de Gauss del campo magnético, la ley de Faraday-Henry de la

inducción electromagnética y la ley de Ampére-Maxwell.

Carl Friedrich Gauss André-Marie Ampère (1775- 1836)

Maxwell armó un modelo físico-matemático capaz de explicar no solo la totalidad de los

fenómenos conocidos en esa época, sino también predecir nuevas ondas electromagnéticas

entonces desconocidas.

La gran contribución de James Clerk Maxwell fue reunir en estas ecuaciones largos años de

resultados experimentales debidos a Coulomb, Gauss, Ampere, Faraday y otros,

19 Sus trabajos publicados incluyen numerosos papers y artículos, entre ellos: Electromagnetic Waves (1889), Electrical Papers (1892) y

Electromagnetic Theory (3 vols 1893-1912). 20 La ley de Gauss establece que: el flujo de campo eléctrico neto a través de cualquier superficie cerrada (Gaussiana) es proporcional a

la carga eléctrica neta encerrada por dicha superficie dividida por la permisividad eléctrica del vacío o del aire. La superficie

cerrada empleada para calcular el flujo del campo eléctrico se denomina superficie gaussiana. La Ley de Gauss es una de las ecuaciones de Maxwell y está relacionada con el teorema de la divergencia, (o teorema de Gauss). Fue formulada en 1835, pero no

fue publicada hasta 1867. Bellone, Enrico (1980). A World on Paper: Studies on the Second Scientific Revolution.

Page 14: 2015: EL «AÑO DE LA LUZ» ORÍGENES DE LA …obela.org/system/files/LA SEGUNDA REVOLUCIÓN CIENTÍFICA...al español en: Encuentros y conversaciones con Einstein y otros ensayos.

introduciendo los conceptos de campo y corriente de desplazamiento, unificando los

fenómenos eléctricos y magnéticos en un solo concepto: el campo electromagnético.

El desarrollo del Electromagnetismo permitió comprender el mecanismo de interacción

entre cuerpos, invalidando la casi mágica interacción denominada “acción a distancia” que

implícitamente establecía el mecanicismo y suponía la Ley de Coulomb.

La Teoría de Relatividad Especial formulada por Einstein en 1905 (40 años después), se

basa implícitamente en las ecuaciones de Maxwell pues ellas se cumplen con rigor en todos

los sistemas inerciales, lo que permite deducir naturalmente las transformaciones del campo

magnético de Lorentz como relaciones únicas de transformación de coordenadas entre

sistemas inerciales.

La primera ecuación de Maxwell se fundamenta en el diseño experimental formulado por

Faraday en 1831, sobre la fuerza electromotriz inducida. Según este, un campo eléctrico se

genera, cuando hay un movimiento relativo del imán con el conductor eléctrico. La fórmula

matemática de la ley de Faraday sería:

El miembro izquierdo de la ecuación (campo eléctrico), define la fuerza eléctrica inducida

en el conductor. La curva C, se define por el conductor (alambre de cobre). El segundo

miembro es la variación temporal (movimiento del imán) del flujo magnético a través de la

superficie que tiene por borde a la curva C. no es que el campo eléctrico sea creado por el

campo magnético sino por el movimiento relativo de ambos.

La segunda ecuación de Maxwell, también se basa en los experimentos de inducción

eléctrica de Faraday (1831), donde una carga Q es encerrada por un recipiente conductor

inicialmente neutro, pero sin establecer contacto directo con el cuerpo cargado. El

recipiente conductor reordena sus cargas (fenómeno de inducción) de tal manera que las

superficies interior y exterior del recipiente quedan cargadas con signo opuesto. La carga

total inducida en cada superficie resulta de magnitud exactamente igual a la de la carga

encerrada.

La expresión matemática de ambas ecuaciones fue dada por Gauss y reformulada por

Heaviside con la actual forma vectorial, utilizando el campo de “inducción” D, que fuera

definido y medido por Faraday:

El primer miembro es el flujo del campo D a través de cualquier superficie que encierre la

carga Q, mientras que el segundo miembro representa la carga total encerrada.

La tercera ecuación de Maxwell, se basaba en la Ley de Ampère. Hasta el año 1820 se

pensaba que la electricidad y el magnetismo no eran fenómenos relacionados. En una

conferencia que daba Oersted, posó una brújula sobre un conductor con corriente

provocando que la aguja se orientara de manera transversal al conductor. De casualidad,

descubrió que una corriente eléctrica está rodeada por un campo magnético. Pero no logró

dar una explicación satisfactoria, pues buscaba una relación causal entre magnetismo y

electricidad.

Page 15: 2015: EL «AÑO DE LA LUZ» ORÍGENES DE LA …obela.org/system/files/LA SEGUNDA REVOLUCIÓN CIENTÍFICA...al español en: Encuentros y conversaciones con Einstein y otros ensayos.

Fue el gran físico matemático francés A. Ampère, quien dio la expresión matemática del

fenómeno (que lleva su nombre). Hoy sabemos que las corrientes eléctricas y el campo

magnético asociado no son causa y efecto ya que ambos, corriente y campo, aparecen

simultáneamente con el movimiento (causa) de cargas. Matemáticamente la ley de Ampère

expresa correctamente tal asociación:

El primer miembro es la circulación de H, siendo C cualquier curva cerrada que rodee a la

corriente I concatenada. Siempre y cuando sean corrientes constantes.

La cuarta ecuación de Maxwell, se basaba en una particular propiedad del campo

magnético (B), cuyas líneas de fuerza son necesariamente cerradas pues no tienen ni

fuentes ni sumideros.

Un mérito destacable de Maxwell fue lograr una descripción operativa de los fenómenos

anteriores mediante complicadas ecuaciones diferenciales, en una época en que aún no se

había desarrollado el análisis vectorial, de mayor potencia y elegante sencillez.

Se concluye que si en un punto del espacio hay un campo magnético variable en el tiempo,

en el entorno del punto habrá también un campo eléctrico variable. Este mecanismo de

vinculación entre campos variables en el tiempo, históricamente se lo denominó

concatenación de campos o lo que es o lo que es lo mismo: propagación ondulatoria.

Pero la Hipótesis de Maxwell no sólo explica cómo se transmiten las perturbaciones,

también predice la existencia de ondas independientes de la materia. El campo

electromagnético adquiere categoría de ente físico real.

La teoría electromagnética de Maxwell no solo produjo una revolución teórica sino que

allanó el camino para importantes innovaciones tecnológicas. La primera y posiblemente

más importante de ellas se produjo en 1888, cuando Heinrich Hertz utilizó la teoría de

Maxwell para crear instrumentos capaces de enviar y recibir pulsos de radio. Este

descubrimiento, abrió el camino andado hasta el actual uso cotidiano de las microondas.

Dicen que el gran físico alemán Ludwig Boltzmann consideró que estas ecuaciones eran

tan bellas por su simplicidad y elegancia que, como el Fausto de Goethe, se preguntó:

«¿Fue acaso un dios quien escribió estos signos?»

Page 16: 2015: EL «AÑO DE LA LUZ» ORÍGENES DE LA …obela.org/system/files/LA SEGUNDA REVOLUCIÓN CIENTÍFICA...al español en: Encuentros y conversaciones con Einstein y otros ensayos.

Placa con ecuaciones de Maxwell en estatua de Edimburgo. Polo usado por estudiantes de electrónica en diversos países.

Maxwell logró deducirla velocidad de las ondas electromagnéticas en el “vacío” etéreo,

suponiendo un grado de densidad mínima (Dm = m0) obteniendo un resultado sorprendente:

la velocidad de una oda electromagnética en tales condiciones, resultaba igual a la

velocidad de la luz. Todo el universo de las radiaciones de onda comenzó a aparecer ante

nuestra experiencia cotidiana.

En la parte sexta de su artículo de 1865 A Dynamical Theory of the Electromagnetic Field,

concluyó con la siguiente legendaria afirmación:

«… la luz y el magnetismo son alteraciones de la misma sustancia y la

luz es una perturbación electromagnética que se propaga a través del

campo según las leyes del electromagnetismo»21.

Esto quiere decir que no todas las radiaciones electromagnéticas tienen la misma longitud

de onda sino que esta se puede ampliar a intervalos muy amplios, un universo conocido

como ESPECTRO ELECTROMAGNÉTICO.

La gran mayoría de estas radiaciones permanecieron ocultas a la experiencia humana

durante milenios, pues no impresionaban directamente a nuestros sentidos (el rango de

frecuencias que se pueden percibir con la vista, va apenas desde el color rojo hasta el

violeta), pero indirectamente revelaban su existencia por sus efectos como el calentamiento

térmico o fotoeléctrico.

Gracias a las ecuaciones de Maxwell fue posible detectar radiaciones cuya longitud de onda

varía desde 50 Km (caso de las ondas hertzianas que se emplean en la telefonía sin hilos),

hasta ondas de una longitud equivalente a la diez milésima parte de un milímetro, como los

Rayos Gamma que posee la menor longitud de onda [10-12 m]; los Rayos Infrarrojos [10-6m]

de fuerte efecto calórico; los Rayos Ultravioletas [10-8m] que provienen fundamentalmente

de la luz solar, o los Rayos X [10-10m] que se emplea en exploraciones médicas y en el

estudio de los metales.

21 «…light and magnetism are affections of the same substance, and de light is an electromagnetic disturbance propagated through the

field according to electromagnetic laws».

Page 17: 2015: EL «AÑO DE LA LUZ» ORÍGENES DE LA …obela.org/system/files/LA SEGUNDA REVOLUCIÓN CIENTÍFICA...al español en: Encuentros y conversaciones con Einstein y otros ensayos.

ESPECTRO ELECTROMAGNÉTICO

Hoy se estima que el límite para la longitud de onda más pequeña posible es la Longitud de

Planck u Hodón. Unidad de medida que se calcula a partir de tres constantes

fundamentales: la velocidad de la luz, la constante de Planck y la constante gravitacional,

que equivale a la distancia que recorre un fotón viajando a la velocidad de la luz en un

instante del tiempo de Planck.

Por otro lado, el límite máximo de una onda electromagnética sería del tamaño del universo

mismo, o equivalente a la Radiación Cósmica de Fondo derivada del Big Bang. Aunque

formalmente (teóricamente) el espectro electromagnético es infinito y es continuo.

No obstante la unanimidad del mundo académico, una amplia mayoría pensó que solo se

trataba de una mera proyección matemática y nadie creyó que esta tuviera alguna utilidad

práctica hasta que el físico alemán R. Heinrich Hertz (1857-1894) descubrió la forma de

producir y detectar ondas de radio mediante una serie de experimentos confirmando así la

teoría de Maxwell de la radiación electromagnética.

Heinrich Hertz

En 1888 Hertz produjo por primera vez artificialmente ondas electromagnéticas cuando ya

era profesor de Física en la Universidad de Karlsruhe en el laboratorio. Esto suponía, no

solo la confirmación empírica de la teoría, sino una victoria sobre aquellos ingenieros

telegráficos que pensaban que la teoría de Maxwell era solo una especulación teórica y

negaban la aplicabilidad de la Electrodiámica a cuestiones de ingeniería práctica.

Page 18: 2015: EL «AÑO DE LA LUZ» ORÍGENES DE LA …obela.org/system/files/LA SEGUNDA REVOLUCIÓN CIENTÍFICA...al español en: Encuentros y conversaciones con Einstein y otros ensayos.

Hertz probó experimentalmente la existencia física de las ondas electromagnéticas, como

había sido predicho por Maxwell y Faraday, construyendo él mismo en su laboratorio un

emisor y un receptor de ondas, usando como emisor un simple oscilador y como receptor

un resonador artesanal.

Hoy, es tan fácil percibir como las ondas electromagnéticas dominan nuestro Universo y

vida social, que basta con mirar a nuestro alrededor y percibir la luz que emiten las estrellas

como el Sol y entender fenómenos como el calentamiento global; o escuchar la Radio y la

TV para vivir “al instante” los sucesos mundiales; o ingresar a Internet lo mismo que hablar

por el teléfono móvil para la casi totalidad de nuestras actividades económicas, industriales,

sociales, políticas, educativas, profesionales y que sirven hasta para usar las microondas en

la preparación de nuestros alimentos diarios a un costo infinitamente bajo.

Una de las consecuencias de esta realidad desbordante, es que ya nadie se acuerda de

aquellos “hombres prácticos” de fines del siglo XIX que pensaban que la electrodinámica

era solo una exquisita especulación matemática para físicos teóricos o una novela de

ciencia ficción, carente de realidad material.

La teoría Electromagnética de Maxwell incluía la hipótesis el éter luminoso y estudiaba las

interacciones electromagnéticas en el marco de un éter omnipresente. Maxwell se mantuvo

firme en que la energía electromagnética y el éter no eran entidades hipotéticas, sino reales.

De hecho, para los físicos británicos del siglo XIX el éter era una condición de existencia

tan real para las ondas electromagnéticas, hasta tal punto, que llegaron a pensar que “o

existía el éter o la electromagnética se vendría abajo. No había forma de sostener una

tesis como la “vibración del vacío”.

El enigma podría plantearse también de otra manera. La teoría del campo, si bien unificaba

todos los fenómenos de la esfera de las radiaciones, no resolvía el enigma de las relaciones

entre la radiación y la materia ¿Cómo así los cuerpos materiales son capaces de recibir y

emitir energía? Esto requería una sola Teoría General de la Física, bajo un solo sistema de

ecuaciones.

Pero la Física estaba dividida. Por un lado, la Mecánica de los cuerpos materiales que

poseían masa se encontraba regida por el Principio de Relatividad de Galileo. Por otro

lado, la Electrodinámica de las radiaciones, que carecían de masa, se encontraba regida por

el Principio de Constancia Absoluta de la velocidad de la luz, independientemente del

cuerpo material que las emita o las reciba. Ambos sistemas de ecuaciones eran

absolutamente divergentes.

CARA A CARA CON EL ÁTOMO

Fue el Físico Holandés Hendrik Antoon Lorentz discípulo de Maxwell quien llevó

adelante la tarea de construir un lenguaje matemático adecuado para resolver este enigma.

Para ello extrapoló las ecuaciones continuas de Maxwell hasta que sus valores alcanzaran

los valores mínimos requeridos que los hicieran equivalentes a los fenómenos

corpusculares y le permitieran describir en detalle los fenómenos eléctricos que se producen

en el seno de los corpúsculos elementales de materia.

Formuló conjuntamente con G. F. FitzGerald, una teoría sobre el cambio de forma de un

cuerpo como resultado de su movimiento. Efecto conocido como «contracción de Lorentz-

FitzGerald».

Page 19: 2015: EL «AÑO DE LA LUZ» ORÍGENES DE LA …obela.org/system/files/LA SEGUNDA REVOLUCIÓN CIENTÍFICA...al español en: Encuentros y conversaciones con Einstein y otros ensayos.

La representación matemática de este fenómeno es conocida por el nombre de

«Transformación de Lorentz». Lorentz descubrió en 1900 que las ecuaciones de Maxwell

bajo este conjunto de transformaciones resultaban invariantes. Las transformaciones de

Lorentz fueron publicadas en 1904, pero su formalismo matemático inicial no era

completamente consistente.

El matemático francés Henrí Poincaré las desarrolló en forma más consistente, que es la

que se conocen hoy día. Junto con el matemático ruso Hermann Minkowski mostraron que

las relaciones de Lorentz podrían interpretarse como fórmulas de transformación para la

rotación en un espacio-tiempo cuatridimensional, elaborado por Minkowski.

En 1907 Minkowski se percató de que la Teoría Especial de la Relatividad presentada por

Einstein en 1905, basada en los trabajo previos de Lorentz y Poincaré podía entenderse de

manera objetiva y no subjetiva usando una Geometría no-euclideana, en un espacio

cuatridimensional. Desde entonces esta es conocida como “Espacio de Minkowski”. Aquí

el tiempo y el espacio no son entidades separadas sino variables ligadas denominada

espacio-tiempo. En este espacio real, la “transformación de Lorentz se convierte en una

propiedad geométrica del espacio.

Con la interpretación física que Albert Einstein dio a dichas relaciones en 1905, como

transformaciones genuinas de coordenadas en un espacio-tiempo tetradimensional (y no

tridimensional, como hasta entonces se venía haciendo) la hipótesis del éter se volvió

innecesaria.

Minkowski Einstein y Lorentz Poincaré

En su discurso de inauguración de la 80 reunión de la Asamblea general alemana de

científicos naturales y físicos el 21 de septiembre de 1908, Minkowski pronunció una frase

que ahora es célebre:

«Las ideas sobre el espacio y el tiempo que deseo mostrarles hoy

descansan en el suelo firme de la física experimental, en la cual yace su

fuerza. Son ideas radicales. Por lo tanto, el espacio y el tiempo por

separado están destinados a desvanecerse entre las sombras y tan sólo una

unión de ambos puede representar la realidad».

Las consecuencias de estos cambios fueron desbastadoras para la representación

mecanicista del mundo.

Page 20: 2015: EL «AÑO DE LA LUZ» ORÍGENES DE LA …obela.org/system/files/LA SEGUNDA REVOLUCIÓN CIENTÍFICA...al español en: Encuentros y conversaciones con Einstein y otros ensayos.

En primer lugar, al introducir las transformaciones de Lorentz en la estructura material,

mediante estas unidades mínimas de electricidad en el seno de los cuerpos materiales, a las

cuales dio el nombre genérico de “electrones”sugerida por Thomson y Stoney, introdujo

la idea revolucionaria de que toda la materia estaba conformada por combinaciones de estos

“corpúsculos”.

Lo que llamamos vulgarmente un “cuerpo cargado”, sería uno que contiene un total de

unidades mínimas que conducen más electricidad o cargas de un cierto signo. Un cuerpo

eléctricamente neutro, es el que contiene cantidades iguales de unidades mínimas de las dos

clases de electricidad.

Ahora la materia se define intrínsecamente por sus interacciones de energía. Una imagen

completamente opuesta al corpúsculo material de la Mecánica newtoniana, que solo se

define por su masa inercial invariante.

El desplazamiento de estos corpúsculos es definido completamente por el desplazamiento

de sus cargas eléctricas, emitiendo o receptando radiación. Las transformaciones de Lorentz

reformuladas ya no exigen que la vibración luminosa sea vibración de algo distinto a la

materia (éter luminoso) y esta es definida por vectores que se remiten a “interacciones

electromagnéticas realmente existentes”.

En segundo lugar, estos corpúsculos ya no tienen la estructura de la mecánica newtoniana:

carecen de masa inercial invariante, pues su masa transversal se reduce en la dirección del

movimiento (como si se achataran) conforme el aumento de su velocidad se aproxima a la

velocidad de la luz (por el aumento de su resistencia inercial). En consecuencia se rompe

también el principio de la Mecánica newtoniana de “igualdad entre acción y reacción”, que

supone la invariancia de la masa inercial. Ahora el cociente inercial (masa) crece con la

velocidad. Y si crece el cociente inercial con la velocidad, crece igualmente el coeficiente

gravitacional.

En tercer lugar, al explicar el nacimiento de las ondas electromagnéticas como producto

del movimiento continuo de los electrones alrededor de átomo, se pone en cuestión el

principio mecánico del equilibrio termodinámico entre materia y radiación.

Si es el movimiento de los electrones es el que genera la emisión de ondas de radiación

(campo electromagnético), según las leyes de la termodinámica mecanicista, la

consecuencia sería la inestabilidad completa del átomo. Pero la tesis contraria también

resulta paradójica, pues la estabilidad del átomo implicaría que los electrones no están en

movimiento y resultaría inexplicable la emisión de ondas del campo electromagnético

continuo.

Para resolver esta paradoja, Einstein sugirió que la gravitación sería en realidad un campo

con las propiedades de la estructura continua del espacio-tiempo. Esto permitiría deshacerse

de las dos hipótesis más problemáticas: la del “éter” y la del “espacio vacío”. Con la

existencia del continuo materia-campo, “espacio vacío” no sería sino campo “gravitacional

puro”.

Einstein sostiene esta hipótesis a partir de un hecho admitido por la propia Mecánica: la

sorprendente coincidencia entre masa inercial (que se da en el espacio vacío) y masa

gravitacional (que se da con la interacción entre cuerpos), que hace irrelevante el concepto

de “masa inercial” pues se trata de lo mismo. En la Teoría Especial de la Relatividad

Page 21: 2015: EL «AÑO DE LA LUZ» ORÍGENES DE LA …obela.org/system/files/LA SEGUNDA REVOLUCIÓN CIENTÍFICA...al español en: Encuentros y conversaciones con Einstein y otros ensayos.

carece de sentido hablar de un “espacio-tiempo inercial” separado del continuo, materia-

campo (espacio vacío).

En la TR el campo (energía) tiene masa y la masa tiene energía (campo), el coeficiente de

intercambio entre ambos varía con la velocidad (E = m.c2). Einstein sugirió una hipotética

prueba experimental: dado que un rayo de luz tiene masa, al atravesar grandes distancias

interplanetarias de un espacio supuestamente vacío «debería describir una trayectoria

curvada».

Este experimento fue llevado adelante por científicos de la Royal Astronomical Society,

mediante fotografías del eclipse solar del 29 de mayo de 1919. El experimento confirmó la

hipótesis de la existencia de un Campo Gravitacional Universal que no era una propiedad

de los cuerpos sino del mismo espacio-tiempo compuesto de materia y campo. El “vacío”

resulta que estaba “lleno de campo”.

En cuarto lugar, otra categoría conceptual decisiva de la ciencia mecanicista moderna se

encontró fuertemente problematizada: la categoría de «conexión causal». Generalmente

este concepto se refiere a la influencia que tiene un hecho sobre otro que le sigue

linealmente en el tiempo, lo cual supone un espacio invariante (tipo recipiente) que no sufre

modificación alguna cuando varía el tiempo.

Ahora, se presenta una “conexión causal extraña” cuando espacio y tiempo constituyen un

continuo tetradimensional o si los objetos materiales a su vez influyen en el espacio-tiempo.

Recordemos que en la TGR la aceleración de los cuerpos y la acción del campo

gravitacional alteran el tiempo y las relaciones espaciales. La causalidad no se da como una

sucesión de estados de los objetos materiales en un espacio-tiempo invariante y único, sino

que depende de la velocidad y de la masa gravitacional de los móviles que interactúan, ni

permite una suma indefinida de velocidades y masas como una progresión lineal.

La causalidad comienza a perder la imagen unidireccional y rectilínea de un espacio

euclideano, para transformarse en un sistema de correlaciones de fuerzas inversamente

proporcionales, pues como señaló Einstein «la división en materia y campo es, desde el

descubrimiento de la equivalencia entre masa y energía, algo artificial y no claramente

definido»22.

ORÍGENES DE LA INTERACCIÓN RADIACIÓN-MATERIA

Como consecuencia del desarrollo del electromagnetismo después de Maxwell, la

investigación giró desde fines del siglo XIX al estudio de los orígenes de las interacciones

radiación-materia.

Se inició con la investigación experimental sobre los cuerpos radioactivos de la tabla de

Mendeleiev23 y por las propiedades ionizantes de los rayos emitidos por algunos de ellos (el

uranio por ejemplo).

Tras los trabajos de Einstein, las ondas electromagnéticas no necesitan de ningún otro

medio material (éter luminoso) para su propagación, como requería la Mecánica, pues ellas

mismas (las ondas electromagnéticas) eran parte del continuo campo-materia.

22 Einstein A. y L. Infeld; La física aventura del pensamiento. Bs. Aires, 1945, Ed. Losada S. A., (tercera edición), p. 292. 23 Pertenecen al período 7 de la tabla periódica, es decir van ubicados en la séptima fila. El período 7 se caracteriza por elementos más

pesados, por el mayor número de protones que poseen, son muy inestables y en su mayoría radiactivos.

Page 22: 2015: EL «AÑO DE LA LUZ» ORÍGENES DE LA …obela.org/system/files/LA SEGUNDA REVOLUCIÓN CIENTÍFICA...al español en: Encuentros y conversaciones con Einstein y otros ensayos.

Esta investigación experimental dio sus primeros frutos cuando Ernest Rutherford demostró

el fenómeno de la trasmutación espontánea de los elementos químicos. La investigación de

la radioactividad produjo a su vez otros interrogantes sobre el origen de las grandes

energías que se originaban en el átomo que la mecánica consideraba simple e inerte.

En un principio se pensó que la emisión de energía resultaba de alguna absorción accidental

del medio circundante (calor, frío, presión o fusión de elementos) pero los sucesivos

fracasos llevaron a la conclusión que la desintegración radioactiva dependía de algún

cambio interno del atomo.

La búsqueda de un modelo matemático básico para orientar la investigación de la

interacción radiación-materia condujo a Lorentz a despojar al átomo de la imagen mecánica

de simpleza inercial, compuesto únicamente por una cantidad mínima y constante de masa.

Le incorporó un “grano de electricidad” orbitando alrededor de un núcleo compuesto de

cargas eléctricas (positiva) opuestas a los electrones (negativa), como un pequeño sistema

planetario. En 1911 publicó su hallazgo del núcleo atómico (diez mil veces más pequeño

que el átomo) en el que se hallaba casi toda la masa de este.

De este movimiento orbital y de la altísima velocidad con que el electrón se desplazaba

alrededor del núcleo atómico, se deducía el origen y la fuente de todas las ondas

electromagnéticas y de todas las interacciones entre la radiación y la materia.

Este modelo matemático de átomo complejo, traía sin embargo una paradoja. En la medida

que este modelo explicaba la creación continua de energía, a expensas del movimiento

continuo del electrón, debería emitir y consumir toda su energía disponible, en una fracción

de segundo el electrón y caer sobre el núcleo. Esto haría inexplicable, tanto la estabilidad

como la neutralidad observada en la materia en general. El modelo solar de Rutherford y

Thomson, basado en las leyes del magnetismo clásico entró en crisis.

PRIMER GIRO EN LA INVESTIGACIÓN

El 19 de octubre de 1900, se produjo un giro total, cuando el físico alemán Max Planck

informó a la Sociedad Física de Berlín un descubrimiento que desconcertó a todos, pues

aparentemente refutaba la teoría ondulatoria de la Electrodinámica. Su informe decía que el

desplazamiento de la energía de radiación térmica podía ser considerada matemáticamente

de forma discontinua como porciones o paquetes intermitentes de cantidades mínimas

posibles de energía, que denominó quatum o cuantos.

La fuente de su fórmula matemática, provenía de una rama de la Física completamente

diferente: la termodinámica. Es decir, Planck utilizaba para el estudio del desplazamiento

de la radiación un método análogo al desarrollado por el físico austriaco Ludwig Eduard

Boltzmann para la termodinámica, de probabilidades estadísticas en términos de

incremento de la entropía de un sistema, producidos por la infinidad de movimientos

moleculares de un gas.

Page 23: 2015: EL «AÑO DE LA LUZ» ORÍGENES DE LA …obela.org/system/files/LA SEGUNDA REVOLUCIÓN CIENTÍFICA...al español en: Encuentros y conversaciones con Einstein y otros ensayos.

Ludwig Eduard Boltzmann

La función termodinámica “entropía” es central en la Termodinámica. Es como una medida

de la distribución aleatoria de un sistema. Un sistema altamente distribuido al azar tiene

alta entropía. La magnitud (variación del orden molecular) es una función probabilística del

sistema. La entropía alcanzará un máximo cuando el sistema se acerque al equilibrio, y

entonces se alcanzará la configuración de mayor probabilidad.

La ruptura era tan grande que el propio Planck justificó su procedimiento aduciendo que

solo se trataba de una mera técnica de cálculo y no de una representación física real.

Sus cantidades discretas, al expandirse restablecerían posteriormente la continuidad física

real de la energía. Pero en realidad, cuando estableció la magnitud proporcional de estos

cuantos, multiplicando la frecuencia (f) por una constante universal conocida luego como

constante de Planck (h), resultó que cuanto más corta era la longitud de onda, mayor era la

porción de energía (E=hf), su valor resultó pequeñísimo (6.6x10-27erg.s).

Tan es así, que un foco de 25w contiene alrededor de sesenta trillones de porciones de

energía por segundo. Por ello la luz parece continua. Pero Plank no logró sugerir un

experimento que respalde de modo directo su hipótesis.

NUEVO MODELO

Sumando los resultados de Planck (1900) y Einstein (1905) el físico danés Neils Henrik

David Bohr formuló un nuevo “modelo solar modificado” que permitía superar el enigma.

Los electrones existentes en un átomo deberían almacenar energía en diferentes niveles

(capas u órbitas sucesivas). Cuanto mayor era la distancia existente entre un electrón y el

núcleo, mayor sería su depósito de energía. Cuanto más permanecen girando en una órbita

dada, no emiten ni absorben energía. Esto solo se da cuando saltan de una órbita a otra.

De esta manera, la diferencia mínima de una órbita a otra corresponde a un cuanto de

energía y su paso de una a otra no es continuo sino a saltos. Ello explicaría su forma

cuántica.

Neils Bohr

Page 24: 2015: EL «AÑO DE LA LUZ» ORÍGENES DE LA …obela.org/system/files/LA SEGUNDA REVOLUCIÓN CIENTÍFICA...al español en: Encuentros y conversaciones con Einstein y otros ensayos.

Cuando un electrón salta de una órbita externa a una interna, quiere decir que pierde

energía en forma de un fotón (cuánto de luz); cuando sucede a la inversa es porque ha

absorbido un cuanto de energía. Por ello el electrón no emite energía en forma continua y

no colapsa en el núcleo ni se escapa fácilmente del átomo.

El nuevo modelo parecía perfecto, pero los físicos se encontraron con una nueva dificultad:

la imposibilidad de calcular el movimiento de un electrón mediante el procedimiento

tradicional de determinar simultáneamente su posición y su velocidad, al igual que el

movimiento de cualquier partícula material.

Pero con un electrón, al moverse, sucedía algo sumamente extraño, como si su masa se

esparciera por toda una región del espacio. Al intentar medir su velocidad, se perdía la

posición del electrón y, a la inversa, al determinar su posición se perdía su movimiento.

Jamás se había presentado en la física anterior un cuerpo tan extraño. El propio Bohr fue

explícito sobre la debilidad de su teoría, al interpretar el cuanto como una partícula clásica.

El problema no tenía un origen empírico, sino conceptual. El electrón no parecía una

partícula material simple, invariante y perfectamente determinable, sino hasta cierto límite,

en sus estados estacionarios.

Pero cuando se producía un salto de una órbita a otra, el modelo de Bohr le perdía el rastro,

era incapaz de seguir a un electrón. Las propiedades corpusculares y ondulatorias son

operativamente opuestas en una descripción matemática. Pero ahora se presentaban unidas

en una sola entidad.

¿No planteaba esto la necesidad de revisar nuestra noción tradicional de “objeto físico”? Es

decir, como una unidad puntual de masa positiva invariante. Las partículas elementales

aparecían como un sistema conformado por relaciones internas no convergentes.

¿«ONDAS DE MATERIA»?

En setiembre de 1924 apareció en The Philosophical Magazine24 un artículo firmado por un

joven y entonces poco conocido físico francés Luis De Broglie25. Fue allí donde por

primera vez se habló de “ondas de materia” y planteó los componentes básicos de su teoría

ondulatoria de la materia, por la que recibiría el premio nobel de Física en 1929.

De Broglie sostiene en este artículo la hipótesis de que las ondas se producen cuando se

mueve cualquier cuerpo, sea este un planeta, una piedra, una partícula de polvo o un

electrón, incluyendo aquellos cuerpos no cargados eléctricamente.

Imagen del texto original de De Broglie en The Philosophical magazine (1924), p. 450.

24 Una de las más antiguas revistas científicas, publicada en Escocia, fundada en 1798. En ella escribieron grandes científicos como

Faraday, Joule, Maxwell, J.J. Thomson, Rutherford y muchos otros. En 1814, Philosophical Magazine se fusionó con el Journal of

Natural Philosophy, Chemistry and the Arts para formar The Philosophical Magazine and Journal. Fusiones posteriores con Annals of

Philosophy y con The Edinburgh Journal of Science lo llevaron nuevamente a cambiar de nombre, hasta que en 1949 volvió a su nombre original: The Philosophical Magazine, con el que se mantiene hasta hoy.

25 de Broglie, Louis; «A Tentative theory of light quanta». En The Philosophical magazine, (1924), 47 (S. 6), pp.446-458.

Page 25: 2015: EL «AÑO DE LA LUZ» ORÍGENES DE LA …obela.org/system/files/LA SEGUNDA REVOLUCIÓN CIENTÍFICA...al español en: Encuentros y conversaciones con Einstein y otros ensayos.

Más aún, las ondas de De Broglie no eran un simple revival de las ondas continuas de la

Electrodinámica clásica, sino que eran (de acuerdo con Planck) cuánticas, es decir

discretas.

Su longitud de onda (λ) era directamente proporcional a la constante de Planck (h) e inversa

a la masa del cuerpo en movimiento (m) por la velocidad (v) de su movimiento:

λ = h/mv

La presencia de la constante de Planck en el numerador del segundo miembro de la

ecuación, muestra de que se trata de ondas extraordinariamente pequeñas (6.6 x 10-27 erg.s),

cuya longitud ningún aparato podría registrar directamente, pues serían algo así como

trillones de veces menor que un átomo, en el caso del movimiento de una simple piedra.

Lo importante es su valor teórico para una descripción dinámica y estructural de todos los

procesos de transformación que se operan en el mundo físico (de ondas en partículas y

viceversa) que resultaban imposibles con la teoría corpuscular de Bohr.

Cuando el movimiento del electrón disminuye el denominador tiende a anularse y la

longitud de onda tiende a hacerse infinita. Cresta y valle se alegan tanto que la entidad se

torna probabilística. Max Born sugirió por ello el concepto de “onda de probabilidad”.

Por el contrario, cuando la longitud de onda decrece comienzan a manifestarse las

propiedades corpusculares del electrón. Lo que es compatible con el coeficiente de

intercambio masa-energía de la ecuación de Einstein.

Lo que en la Mecánica clásica estaba absolutamente separado (la trayectoria de un cuerpo

regida por la segunda ley de Newton y la trayectoria de una onda de energía por la ecuación

de D’Alambert) ahora, ambos fenómenos se encuentra unido bajo un mismo sistema de

ecuaciones.

De Broglie utilizó las clasificaciones que había realizado un siglo antes el matemático

escocés William Hamilton, que había observado ciertas analogías o simetrías entre los

procedimientos para describir el movimiento de un cuerpo material y la propagación de la

luz. Con De Broglie una simetría puramente formal adquirió un profundo significado físico.

Casi paralelamente independientemente de De Broglie, el físico austriaco Erwin

Schrödinger modifico la ecuación de Hamilton en 1926 y obtuvo las ondas de De Broglie.

Esta modificación fue desde entonces conocida como la “ecuación de Schrödinger”.

Lo novedoso de esta modificación del formalismo fue que al describir la función de onda

como una función escalar y no como un vector, asoció la onda a un corpúsculo y se ahorró

la necesidad de tener que referir la onda a la paradójica hipótesis de la existencia de un

medio vibrante (como el “éter luminoso”) en el vacío.

Por otro lado, el carácter complejo de su ecuación, le permitió trabajar con coeficientes que

no necesariamente son reducibles a números reales (entre ellos se encuentra la √-1), es

decir que no necesariamente tienen que reducirse a un punto o corpúsculo individual

claramente definido, como exige el clásico axioma de extensión que requiere la

enumeración individual de todos los elementos o propiedades de un conjunto.

Page 26: 2015: EL «AÑO DE LA LUZ» ORÍGENES DE LA …obela.org/system/files/LA SEGUNDA REVOLUCIÓN CIENTÍFICA...al español en: Encuentros y conversaciones con Einstein y otros ensayos.

La “función de onda” es la solución que adquiere una ecuación diferencial básica donde las

interacciones que se describen no son propiedades de los individuos u objetos sino, del

sistema, no describen historias individuales sino leyes probabilísticas de las interacciones

causales del grupo.

Esto se consigue haciendo que la ecuación sea simétrica. Restringe los tipos de soluciones

posibles a ciertos parámetros o límites que definen la movilidad del sistema. El carácter no

reduccionista de la “ecuación de Schrödinger” coincidió a su vez con los procedimientos

del “Principio de exclusión de Pauli”, donde los límites de la movilidad de las partículas

fluctúan entre la más alta (“barrera de potencial”) y la más baja (“pozo de potencial”).

La “ecuación de Schrödinger” al poner al centro los procesos de transición materia-energía

unifican dos hipótesis que parecían incompatibles para el pensamiento mecánico: los

cuantos de energía de Planck y las ondas de materia de De Broglie, despejando la aporía

esencial que envolvía la física moderna.

Parafraseando a Hegel, se podría decir que el formalismo mecánico, solo veía la identidad o

la diferencia, pero no la transición de lo uno en lo otro, que es la esencia de la dialéctica.

TEORÍA CUÁNTICA RELATIVISTA

A finales de la década de 1920, la Física Cuántica comenzó a penetrar en el corazón del

átomo. Pero el giro epistemológico siguió dominado todavía en gran parte por el

pensamiento mecanicista, los científicos siguieron acumulando rutinariamente los

descubrimientos de nuevas entidades llamadas “partículas elementales” al interior del

átomo.

En los años treinta, en el núcleo fueron descubiertos el neutrón y el protón, luego los

mesones-pi y los mesones-mu y el neutrino. Hoy se contabilizan más de cien “partículas” a

las que se les atribuye propiedades diversas. Solo la existencia de tal cantidad de entidades

era un fuerte indicio de que no se trataba de entidades “elementales”.

En lugar de simplificar el panorama, nuevamente se había complicado con esta

multiplicación excesiva de entidades corpusculares. La tradición mecanicista persistía a

pesar de Schrödinger26.

Paul Dirac, Erwin Schrödinger y Werner Heisenberg

Cuando todo parecía haber vuelto a su estado inicial, a inicios de 1928, el físico inglés Paul

Dirac publicó una solución matemática a este problema con la formulación de una ecuación

que describe el movimiento de un electrón libre (no atado a un núcleo), mediante cuatro

26 El Premio Nobel de Física de 1933 se repartió a partes iguales entre Erwin Schrödinger y Paul Dirac.

Page 27: 2015: EL «AÑO DE LA LUZ» ORÍGENES DE LA …obela.org/system/files/LA SEGUNDA REVOLUCIÓN CIENTÍFICA...al español en: Encuentros y conversaciones con Einstein y otros ensayos.

funciones de onda. Dirac descubrió su ecuación a finales de 1927, y fue publicada en

febrero de 1928 en su famoso artículo «The Quantum Theory of the Electron»27.

Dos funciones de onda describían el movimiento propio del electrón (spin) con respecto a

la dirección de su movimiento. La otra pareja de funciones, una describía la energía total

positiva del sistema y la otra la energía total negativa del sistema.

Lo “paradójico” de estas ecuaciones era precisamente la presencia necesaria de la función

de onda que describe la energía total negativa del sistema, pues esta solo se usa para

describir una partícula ligada con otras (en el átomo por ejemplo). Pero la ecuación de

Dirac fue formulada para describir únicamente al electrón libre, aunque para describirlo de

manera que coincidiera con los hechos, las ecuaciones de Dirac tuvieron que suponerlo

libre y ligado al mismo tiempo, lo cual resultaba absurdo, si pensamos en una partícula

clásica.

Dirac propuso una justificación explosiva. Sugirió algo así como que el vacío “no estaba

vacío” sino lleno de “electrones positivos”. Añadió también que estos copaban hasta el

límite diversos niveles de energía que existían en el espacio llamado “vacío”.

Para Dirac, lo que llamamos “vacío” son interacciones negativas (antipartículas) que se

encuentran por debajo de la energía positiva que señala la ecuación de Einstein (E= m0.c2)

donde fija el coeficiente simétrico de intercambio entre masa y energía. Dirac las llamó

“antipartículas”, por su “masa negativa” (inferior a m0).

Estas antipartículas no se pueden detectar mientras están en el “pozo de potencial”, hasta

que saltan la “barrera de potencial” y se dice que el vacío de “ioniza”. En su lugar queda

como una suerte de “hueco” (“antipartícula”) con carga positiva (Positrón).

Clásicamente se definía el vacío como “ausencia de interacción”. Ahora, el vacío no es

neutro, el Positrón es tan real como el Electrón, su carga positiva interactúa desde este

peculiar “vacío” con la carga negativa de los electrones. En 1932 se confirmó

experimentalmente la existencia de estos “huecos” o antipartículas de Dirac y se abrió el

camino para investigar esta clase de las llamadas antipartículas.

La cuestión esencial, para entender este fenómeno en la Física Cuántica Relativista (FCR),

es que tanto las partículas elementales como las antipartículas, no son “entidades”, sino

relaciones del sistema de interacciones del flujo radiación-materia, dos estados de la misma

substancia.

Desde la ecuación de Schrödinger, los físicos pudieron “ver de cerca” las transformaciones

del campo en materia y de materia en campo. También se hizo evidente el porqué del error

del proyecto inicial de Einstein de pretender reducir el concepto de materia al concepto de

campo. Se trata de momentos y procesos de un mismo flujo, no de entidades invariantes e

independientes de sus interacciones (separadas por “hard and fast lines”) como suponía el

principio inercial de la mecánica clásica.

«El campo ilimitado e imponderable puede adquirir dimensiones y masa. La

materia que pesa y es visible puede perder dimensiones y masa»28.

27 Proceedings of the Royal Society of London. Series A, Containing Papers of a Mathematical and Physical Character. Vol. 117, No.

778 (Feb. 1, 1928), pp. 610-624

Page 28: 2015: EL «AÑO DE LA LUZ» ORÍGENES DE LA …obela.org/system/files/LA SEGUNDA REVOLUCIÓN CIENTÍFICA...al español en: Encuentros y conversaciones con Einstein y otros ensayos.

Lo mismo sucedía con la línea rígida que separaba materia y vacío. Ahora, cuando el

electrón se “sumerge en el vacío”, el electrón no simplemente cede parte de su energía, sino

que cede su “energía propia” (spin) deja de ser electrón y se transforma en positrón

(antipartícula).

De manera inversa, el positrón, al dejar el espacio aparentemente vacío, deja de ser una

antipartícula y deviene en un electrón.

Cuando hablamos de materia y campo o materia y vacío, o partícula y onda, estamos

hablando de interacciones, no de entidades, sino de existencias relativas unas de otras. No

existen cuerpos sin campo, ni ondas sin cuerpos. Son dos caras de la misma moneda.

Las llamadas “partículas elementales” se refieren a relaciones o interacciones elementales o

básicas de la transición de un sistema a otro. Y estas transiciones se dan por emisión y

absorción de mesones, al igual que el intercambio electrónico se realiza por emisión o

absorción de fotones.

Cuando el protón y el neutrón intercambian mesones-pi, este intercambio va acompañado

de transformaciones cualitativas. No se trata de un simple intercambio mecánico. Luego de

su intercambio, el protón y el neutrón no vuelven a su situación inicial, sino que el

resultado es una suerte de «nuevo enlace», debido precisamente a las características

ondulatorias tanto de la energía como de la masa que en la mecánica eran invariantes

adquieren una gran indeterminación.

Tal lectura permitió construir una teoría sobre la estructura de las “Interacciones

Fundamentales” (o Relaciones Fundamentales), un nombre más riguroso que el de

“Partículas Fundamentales”. Son teorías que desarrollan una lógica de relaciones, donde las

entidades son como nodos de una red de internet o como los grumos de un engrudo.

PROCESOS VIRTUALES

¿Hasta qué distancia se extienden los límites de las interacciones electromagnéticas?

Carece de límites; puede ser cualquiera.

La indeterminación de la masa y la energía de los fenómenos nucleares fue descrita como

“procesos virtuales” o nuevamente como “partículas virtuales”, aunque acá tienen un

significado físico real. No se trata de entidades metafísicas o imaginarias como suele ser en

el uso coloquial del lenguaje29. Se trata de conceptos “observables”.

Lo que sucede es que el concepto “observable” ya no tiene un sentido simple a partir de la

Electrodinámica Cuántica Relativista. Un electrón es en un cierto sentido “inobservable”, si

intentamos medir simultáneamente su velocidad y posición. Por el contrario el vacío se

vuelve virtualmente “observable” en la medida que ya no es eléctricamente neutro y sus

cargas positivas interactúan con los electrones. Entonces, el positrón se hace observable y

real.

A partir de la década de 1950, la introducción de los procesos virtuales en la Física

Cuánica Relativista y el uso creciente de aceleradores de partículas, condujo al

descubrimiento masivo de nuevas “partículas” o nodos de una red. La mayoría de ellas son

28 Weisskopf V.F.; «Las tres espectroscopias». En Partículas elementales. Libros de Investigación y Ciencia. Prensa Científica.

Barcelona, 1984, p. 42. 29 Kendall H. W. y W.K.H. Panofsky; «Estructura del protón y del neutrón». Scientific American, junio,1971. Rep., en: Partículas

elementales…, op. cit. P. 57-58.

Page 29: 2015: EL «AÑO DE LA LUZ» ORÍGENES DE LA …obela.org/system/files/LA SEGUNDA REVOLUCIÓN CIENTÍFICA...al español en: Encuentros y conversaciones con Einstein y otros ensayos.

muy inestables y esto dio a su vez los parámetros temporales para el establecimiento de

“familias de interacciones”. La mayoría de ellas tiene una media de existencia de 10-23s.

Tiempo que dura el intercambio mesónico en los núcleos.

Al conjunto de interacciones que se producen en las proximidades de estos valores, se les

denominó Interacciones Fuertes (IF) por la gran energía que contienen, y a los cuantos de

dicha interacción se les denomina hadrones. Un segundo grupo está formado por las

llamadas Interacciones Electromagnéticas (IE), cuyos cuantos son los fotones. Un tercer

grupo está formado por las llamadas Interacciones Débiles (ID) o de “disgregación” cuyos

cuantos aún se desconocen. Su radio de acción es corto y no es capaz de construir estados

ligados. Finalmente, el cuarto grupo, es el que describe las Interacciones Gravitatorias

(IG) de gran debilidad, que no ha permitido hasta ahora describir sus cuantos o gravitones.

Hoy son las interacciones las que definen las partículas y no a la inversa como en el método

mecánico clásico. Sus leyes describen, como dice Heisenberg, “simetrías fundamentales”, a

partir de familias (multipletes) establecidas por las cuatro interacciones básicas. Este

entendimiento es clave para entender los problemas fundamentales del formalismo

cuántico.

Por ejemplo, en los procesos de transformación de una partículas en otras, se rebelaron

resultados paradójicos: cuando el mesón-pi de gran energía chocaba con un protón, se

desintegraban y surgía en su lugar un mesón-k y un hiperón-lambda, pero en lugar de

fragmentos más pequeños del protón, aparecía un hiperón-lambda que tiene más masa que

el protón.

Sucede que en la Física Cuántica Relativista carece de sentido la imagen (que podemos

denominar como “teorema de Zenón”), de “división indefinida por masas” cada vez más

pequeñas de partículas elementales; al igual que en la Teoría General de la Relatividad

carece de sentido la extensión indefinida del teorema de galileano de la “suma de

velocidades”.

Hay fuertes razones para el abandono de esta visión mecanicista, que coloca la noción de

masa como componente central del mundo material. En la relación de indeterminación de

Heisenberg, la masa solo se considera constante cuando su velocidad dista mucho de la

velocidad de la luz.

Conforme un cuerpo material se aproxima a esta velocidad van desapareciendo cada vez

más sus límites precisos en la medida que se desarrollan sus propiedades ondulatorias.

Carece de sentido decir que un electrón es más grande que un protón (u otra partícula

nuclear) pues por sus propiedades ondulatorias puede extenderse por toda una región del

espacio, cualquiera sea su dimensión inicial.

Tampoco es posible asignarle una dimensión fija a la masa de un cuerpo, pues en la

ecuación de Hamilton (Ecn = m.v 2/2) la masa tiene incluso probabilidad negativa.

En consecuencia, si la cantidad de masa que posee un cuerpo no es constante, ningún

cuerpo, por más diminuto que sea puede ser una “partícula elemental” (en el sentido

intuitivo del término), salvo por convención. Se trata de estructuras móviles e inestables.

Finalmente la graduación de los cuerpos exclusivamente por la cantidad de masa que

poseen, carece de sentido físico, pues no existen cuerpos materiales independientes de sus

Page 30: 2015: EL «AÑO DE LA LUZ» ORÍGENES DE LA …obela.org/system/files/LA SEGUNDA REVOLUCIÓN CIENTÍFICA...al español en: Encuentros y conversaciones con Einstein y otros ensayos.

mutuas interacciones, algo así como una “cosa en sí” kantiana. Este era precisamente el

supuesto metafísico de la Mecánica de Galileo y newton.

Para manejar con precisión estos fenómenos se han propuesto varios formalismos. En la

década de 1970 se comenzó a explorar un nuevo método para resolver la paradójica

tendencia al confinamiento de las partículas elementales respecto de sus interacciones; o si

se quiere, las interacciones entre las partículas cargadas eléctricamente y el campo

electromagnético, denominado “grupo de renormalización”.

Este no consiste en una teoría descriptiva de la naturaleza, sino en un método general de

construir teorías.

Sugiere vincular en una sola visión teórica la descripción de fenómenos tan disímiles como

por ejemplo: un fluido en un punto crítico, un ferromagneto en la temperatura de imanación

espontánea, una aleación metálica a la temperatura en que sus átomos se distribuyen

ordenadamente y, otros fenómenos como la superconductividad, la superfluidez, la

formación de polímeros y el enlace de quarks.

En otras palabras, se trata de un método de tratamiento del mundo físico que nos estimula a

evitar mirar el mundo como un “compuesto heterogéneo de cosas” o una “suma de

entidades discretas” y más bien nos invita a percibirlo como si se tratara de fluctuaciones de

una sola estructura elástica o fluida básica.

Un modelo bastante económico, que no incluya átomos u otras partículas análogas que

requieren muchas escalas de longitud; que consiste solo en vectores de spin, ordenados en

una red y establecidos a partir de lo que se puede considerar un “punto crítico” de

“fluidez”.

En realidad, las similitudes y analogías establecidas entre todos estos fenómenos, no son

sino ejemplos de una hipótesis más general llamada Universalidad del Punto Crítico, según

la cual, diversos fenómenos físicos o socio-culturales, si se estudian como sistemas, se

comportan de la misma manera conforme se acercan a su respectivo punto crítico y,

entonces se dice que son miembros de la misma clase de universalidad.

Este enfoque, inspiró desde inicios de la década de 1980, una nueva teoría unificada,

llamada de Simetría Cúbica30. Su mayor ventaja consiste en la simplicidad lógica. Reduce

los leptones y quarks a una sola familia; las fuerzas débiles, fuertes y electromagnéticas a

una única fuerza fundamental.

Partículas y fuerzas, son como estados de temperaturas y consecuentemente producto de

variaciones en la energía de las partículas. A su vez, la energía a partir de la cual se

establece la identidad básica de todos los entes físicos es de 1015 GeV (Giga-electronvolt).

Dicha teoría amplia inmensamente el espectro predictivo y explicativo de fenómenos no

deducibles de teorías anteriores. Por ejemplo: la existencia de más materia que antimateria

en el universo.

También predice la desintegración del protón y la consecuente inestabilidad evolutiva de la

materia, contraria a la imagen simétrica y equilibrada que proporcionaba el mecanicismo

atomista moderno.

30 Howard,Georgi; «teoría unificada de las partículas elementales y las fuerzas». En Scientific American, jun., 1981, Rep. En: Partículas

elementales…, op. cit., p. 230.

Page 31: 2015: EL «AÑO DE LA LUZ» ORÍGENES DE LA …obela.org/system/files/LA SEGUNDA REVOLUCIÓN CIENTÍFICA...al español en: Encuentros y conversaciones con Einstein y otros ensayos.

Se trata de un formalismo donde 5 estados básicos de la materia y 24 interacciones básicas

son suficientes para explicar todas las interacciones físicas observadas hasta hoy.

DE LA CAUSALIDAD MECÁNICA A LA CAUSALIDAD SISTÉMICA

La tradición mecanicista restringió toda relación causal a la continuidad local entre dos

entidades o sucesos, prohibiendo toda interacción a distancia, sintetizada en el popular

adagio latino: natura non facit saltum.

Si bien la TGR problematizó este determinismo local absoluto que identificaba

determinación métrica con relación causal, no cuestionó la noción restrictiva de

continuidad exclusivamente local que esta suponía.

Por ejemplo, dos estados espacios-temporales (no contiguos) pueden tener propiedades

métricamente diferentes (inconmensurables entre sí) pero si pueden poseer la misma

estructura causal y ser topológicamente semejantes (ciertas estructuras espaciales de

contigüidad) como sucede con la deformación de un cuerpo, cuando lo estiramos como una

goma de mascar.

A pesar de la distorsión métrica, se ha preservado una misma estructura topológica. En

topología matemática se dice que no ha habido un “corte” (o curvatura causal cerrada) o

“rasgadura” que rompa su continuidad, solo ha habido una ruptura métrica, no topológica.

Se dice entonces que la causalidad estructural a diferencia de la causalidad mecánica

local es una causalidad sistémica (estructural), irreductible a las interacciones locales de

sus elementos simples (métricos).

Pues bien, la teoría cuántica inició una radical problematización de la noción de medición,

pues describe una variedad de relaciones o interacciones cuyo grado de incertidumbre son

características de un sistema.

¿Cómo podría describirse entonces un “sistema cuántico”?

Desde otra perspectiva, podemos trasladar la interrogante a la noción misma de “sistema

mecánico”, o más precisamente a la noción de “sistema aislado” o “simple”.

Un sistema complejo no lo es por el simple aumento cuantitativo de sus componentes. Un

sistema mecánico se dice que es simple porque sus componentes o dispositivos tiene una

función específica: transmitir o transformar el movimiento de distintos tipos de energía de

una fuente a un objeto recipiente.

Desde mucho antes del capitalismo se conocían y usaban muchos de estos sistemas

mecánicos simples: la rueda y los rodillos para desplazar objetos pesados; la rueda dentada

o engranaje; la polea fija y móvil; la palanca simple, la de segundo y tercer grado; el plano

inclinado; la cuña, para romper sólidos; el tornillo o tuerca que permite convertir un

movimiento giratorio en una lineal y continuo y, muchos otros.

La comprensión de los cambios en el paradigma de ciencia contemporánea, son realmente

un problema para todos los que identifican el paradigma de ciencia con los sistemas

mecánicos simples (o aislados), que tienen pocas variables e interacciones y que sus

algoritmos las cubren directamente.

La problematización de estos sistemas –no provino de un debate exclusivamente

académico- se produjo porque no pueden explicar teóricamente ni responder prácticamente

Page 32: 2015: EL «AÑO DE LA LUZ» ORÍGENES DE LA …obela.org/system/files/LA SEGUNDA REVOLUCIÓN CIENTÍFICA...al español en: Encuentros y conversaciones con Einstein y otros ensayos.

a sistemas complejos que contienen fenómenos como los de “retroalimentación”, ni

encierran subsistemas o elementos autónomos que descentralizan las respuestas, ni

responden a fluctuaciones o desestabilizaciones de algún equilibrio matriz.

Los sistemas complejos tratan precisamente de “sistemas integrados” por acoplamientos o

uniones variables, cuyos vínculos crean información adicional no visible aisladamente por

el observador.

Como resultado de las interacciones entre elementos no convergentes, surgen propiedades

nuevas que no pueden explicarse a partir de las propiedades de sus elementos aislados.

Dichas propiedades se denominan «propiedades emergentes» de un sistema. Un «sistema

complejo», posee más información contextual que la que da, cada parte, de manera aislada.

Un caso sencillo y cotidiano de este tipo de sistemas se puede observar en las

transformaciones que fue adquiriendo una industria típica de esta segunda revolución

científica: la industria automotriz. La mayoría de investigaciones relacionadas con el sector

automotriz se ha concentrado en el análisis de la naturaleza mecánica de los vehículos y,

muy poco en el estudio de su transformación electrónica. Sus componentes y subsistemas

electrónicos han transformado hoy la naturaleza de los vehículos automotores de un sistema

simple a un sistema complejo.

John Stewart Bell en 1982

El argumento más fuerte a favor de la Física Cuántica, provino del teorema formulado en

1964 por el físico irlandés John Stewart Bell, conocido desde entonces como “Teorema de

Bell”.

En realidad, se trata de un METATEOREMA, que argumenta que las predicciones de la

teoría cuántica no resultan aparentemente intuitivas porque afectan a dos supuestos

metafísicos fundamentales de la física mecanicista moderna: el supuesto de la

“separabilidad” de una entidad de sus interacciones con otras y el de la “localidad” (o

continuidad métrica) de toda relación causal.

Se trata de un teorema de imposibilidad, al que Bell agrega una prueba experimental para

demostrar que con una teoría física de “variables ocultas locales” (es decir “mecánica”), no

Page 33: 2015: EL «AÑO DE LA LUZ» ORÍGENES DE LA …obela.org/system/files/LA SEGUNDA REVOLUCIÓN CIENTÍFICA...al español en: Encuentros y conversaciones con Einstein y otros ensayos.

se puede lograr ninguna de las predicciones exitosas de la teoría cuántica31. Es decir, se

trata de una argumetación, que no sin humor,algunos académicos han denominado como

“Metafísica Experimental”.

Pero independientemente del nombre, el hecho es que, luego de resolver infinidad de

problemas técnicos, entre 1971 y 1980 se realizaron un total de siete experimentos. Cinco

de ellos respaldaron las predicciones de la teoría cuántica.

¿De qué estamos hablando entonces cuando nos referimos a estructuras sistémicas “no

locales” y “no deterministas”? que ciertamente no remiten a un sistema mecánico simple,

sino a lo que algunos comienzan a denominar como “sistemas enmarañados”

(entaglenment).

El valor de la medición resulta en el teorema de Bell un valor del sistema, aún sin estar en

contacto local con él. La violación del principio de separabilidad por la teoría cuántica

sugiere que estas entidades cuánticas constituyen un todo abierto e indivisible.

MODELOS DE CUERDAS

Desde mediados de la década de los ochenta, se vienen explorando diversas teorías basadas

en un paradigma matemático muy diferente al de los modelos corpusculares, como los de la

teoría de “Supercuerdas”.

Las interacciones de las entidades cuánticas se asemejan a los diferentes modos de

vibración armónica (simetría)32 que dependen de la tensión de una cuerda. La frecuencia de

la vibración determina la energía y por tanto la masa de las entidades cuánticas.

Lo prometedor de los modelos de cuerdas es que su formalismo permite considerar las

cuatro interacciones fundamentales como aspectos diversos de una sola simetría

subyacente, que sugiere cambiar nuestra “geometría del universo”.

Por ejemplo, en el modelo de Supercuerdas la gravitación define un mundo ampliado a diez

dimensiones espacio-temporales. Una enorme ampliación geométrica de nuestra idea del

“espacio-tiempo tetradimensional” de la ya revolucionaria Geometría de Riemann y la

Teoría General de la Relatividad de Einstein.

Dicha ampliación no solo consiste en el agregado de seis nuevas dimensiones a las cuatro

visibles, sino que origina un cambio radical de nuestra geometría del universo. El número

de posibles configuraciones de un “campo de cuerda” o “vibración de una entidad cuántica”

que a diferencia de un modelo de partículas, barre toda una “hoja del universo”.

En la TGR (no-cuántica) se supone una partícula puntual que se mueve a lo largo de una

“línea del universo” (línea de Minkowsky) limitando sus interacciones a una longitud

unidimensional, pues no conlleva información de su interacción con el espacio de fondo.

Una “hoja del universo” en cambio, incorpora una masa de información contextual que

31 Bell J. S.; «On the Einstein Podolsky Rosen paradox». En: Physics, 1964, vol 1. N° 3, pp. 195-200. 32 Los conceptos de “simetrías” y “grupos” están asociados al Álgebra abstracta, disciplina que estudia “estructuras algebraicas” (grupos,

anillos, cuerpos o espacios vectoriales). Un grupo es una estructura algebraica que consta de un conjunto de elementos y una operación que combina cualquier pareja de sus elementos para formar un tercer elemento. El conjunto y la operación deben satisfacer algunas

condiciones llamadas axiomas del grupo. Los grupos comparten un parentesco fundamental con la noción de simetría. El concepto de

grupo surgió del estudio de ecuaciones algebraicas con una incógnita. Comenzó con los trabajos de matemático francés Evaristo Galois durante la década de 1830. Después surgieron contribuciones desde otros campos, como la Teoría de números y la Geometría. La

noción de grupo se generalizó alrededor de 1870.

Page 34: 2015: EL «AÑO DE LA LUZ» ORÍGENES DE LA …obela.org/system/files/LA SEGUNDA REVOLUCIÓN CIENTÍFICA...al español en: Encuentros y conversaciones con Einstein y otros ensayos.

podría describir algo así como el desplazamiento (como movimientos vibratorios) de una

película jabonosa que envuelve toda una región del espacio-tiempo.

Por la información que produce, una cuerda da lugar a dos tipos: cuerdas abiertas o cuerdas

cerradas.

Las cerradas, son aquellas que barren hojas del universo que topológicamente incluyen

registros de todas las posibles superficies conexas (estiramientos, torceduras o

deformaciones elásticas suaves (sin rasgaduras) de las superficies en que se desarrollan los

eventos físicos.

Las cuerdas abiertas son, por el contrario, aquellas que barren hojas del universo con

rasgaduras en su continuidad topológica, con un número arbitrario de “agujeros”.

Cuando asociamos uno a uno elementos de un conjunto, con otros elementos del mismo

conjunto, decimos que se ha producido una transformación por rotación automórfica, en la

medida que son simétricas y continuas en torno a ejes espacio-temporales internos del

mismo grupo.

Cuando las transformaciones simétricas se realizan de manera independiente, en cada punto

del espacio y de manera continua, se les denomina “simetrías de aforo” y las teorías que las

usan “teorías de aforo”.

Cuando se produce un cambio de estado o direccionalidad de un sistema de un sistema a

otro distinto, se le denomina “simetrías de aforo rotas”.

Este mismo procedimiento condujo a la formulación posterior de “grupos de simetría de

aforo”. Sirven para explicar de manera unificada sistemas complejos que agrupan

fenómenos muy diversos. Esto permitió posteriormente una nueva agrupación, para

formular las denominadas “Supersimetrías”.

Por ejemplo, este grupo permitió unificar en una sola teoría las interacciones

electromagnéticas y las interacciones débiles, en la Teoría Electrodebil. Si bien a

temperaturas ordinarias, ambas funcionan como dos interacciones con propiedades y

características métricas totalmente distintas, a temperaturas muy superiores a los 1015 gr.

cel., su simetría se hace patente.

Pero en términos físicos, recién a partir de los años ochenta, los físicos Schwarz y Green

empezaron a construir modelos de teorías de cuerdas con supersimetrías, motivados por las

implicancias del Principio de Incertidumbre de Heisenberg.

La conducta de las entidades cuánticas fue denominada por Richard P. Feynman “método

de suma de historias”, en la medida que exige una teoría de Supercuerdas.

Es definitivamente –como señala Heisenberg, el cambio en el modelo mismo de construir

teorías, donde se ha producido el cambio más importante que trajo la segunda revolución

científica e industrial iniciada a mediados del siglo XIX.


Recommended