UNIVERSIDAD COMPLUTENSE DE MADRID
FACULTAD DE CIENCIAS FÍSICAS
DEPARTAMENTO DE ÓPTICA
TRABAJO DE FIN DE GRADO
Código TFG: OPT03
Luz no clásica, definición, tipos, propiedades y aplicaciones
Nonclassical light, definition, types, properties, and applications
Supervisor/es: Alfredo Luis Aina
Blanca Martín Muñoz
Grado en Física
Curso académico 2019-20
Convocatoria Septiembre
Criptografía y los secretos de la luz cuántica
Resumen
La criptografía como la técnica de enviar mensajes con claves secretas de tal forma que lo
escrito solo sea inteligible para quien sepa descifrarlo, ha tenido desde sus inicios un único y
verdadero talón de Aquiles. Este no ha sido tan solo evitar que un intruso interceptase dicho
mensaje, sino el saber que ese intruso existía. A lo largo de la historia, su uso se ha ido
acercando más al ciudadano de a pie, dejando a un lado su exclusividad para el mundo militar
y gubernamental. Actualmente, la criptografía forma parte de nuestro día a día en acciones tan
cotidianas como una simple compra online, lo que ha supuesto la necesidad de encontrar el
algoritmo inquebrantable. Bien es cierto que el objetivo de encontrar el algoritmo perfecto fue
logrado en 1917 con el desarrollo del One-time Pad. Sin embargo, éste poseía un gran
inconveniente: el problema de la distribución segura de la clave. Tras varias soluciones
alternativas como la criptografía de clave pública, no fue hasta los años 80 que se encontró la
indiscutible solución a éste: la fusión de la criptografía y la cuántica con sus leyes irrefutables.
Con el desarrollo de protocolos como el BB84 y el E91 la criptografía cuántica pudo, por fin, ver
la luz: la criptografía cuántica, una criptografía completamente segura nació.
Abstract
It is widely known that, cryptographic, the art of code-making and decode-breaking, it is no
longer just a military nor governmental application but a daily action. Nowadays, cryptographic
is part of our lives just with the simple action of buying online. Due to its increasing
application, the need to develop the perfect algorithm is of vital importance. It is not only
about preventing a third party to intercept de encrypt message, but also knowing the
existence of this one. This goal was achieved, at least in principle, in 1917 when the One-Time
pad was invented. Nevertheless, this protocol has in practice an important drawback: the key
distribution problem. After several attempts to overcome this difficulty, like the birth of public
key cryptographic, the indisputable solution was found during the 80s: the fusion between
cryptographic and the irrefutable quantum laws. The discovery of protocols such as BB84 or
E91 enlightens this science: the quantum cryptographic, an absolute secure cryptographic was
born.
1
ÍNDICE
1. INTRODUCCIÓN 2
2. CRIPTOGRAFÍA CLÁSICA: FUNDAMENTOS Y PROTOCOLOS 3
2.1. ONE TIME PAD: EN BUSCA DEL PROTOCOLO INQUEBRANTABLE 3
2.2. CRIPTOGRAFÍA DE CLAVE PÚBLICA 6
3. CRIPTOGRAFÍA CUÁNTICA: FUNDAMENTOS Y PROTOCOLOS 8
3.1. POLARIZACIÓN 8
3.2. TEOREMA DE NO CLONACIÓN 10
3.3. EL PROTOCOLO BB84 11
3.4. LA PARADOJA EPR: ENTRELAZAMIENTO CUÁNTICO 15
3.5. TEOREMA DE BELL 16
3.6. PROTOCOLO E91 18
4. CONCLUSIÓN 19
5. REFERENCIAS 20
2
1. INTRODUCCIÓN
El siglo XXI es conocido como el siglo de las nuevas tecnologías, pues raro es el día en que no
se anuncie un nuevo avance tecnológico. Internet, junto a los distintos aparatos electrónicos,
forman parte de nuestro día a día. Consecuentemente, el mundo informático y en general, el
procesado automático de la información ha ido creciendo y evolucionando progresivamente
durante estos últimos años. Una de las grandes revoluciones ha sido el descubrimiento de lo
que podría suponer la aplicación de la teoría cuántica en el mundo computacional. A pesar de
que esta fusión es relativamente reciente, la física cuántica, desde sus inicios, ha supuesto
grandes avances en distintas áreas del conocimiento.
Fue durante los primeros treinta años del siglo XX cuando se comenzó a desarrollar la física
cuántica. Físicos como Albert Einstein y Max Planck comenzaron, junto a otros grandes
científicos, una exhaustiva investigación con el fin de comprender fenómenos que hasta la
fecha eran inexplicables. Este área estudia el mundo microscópico (átomos, moléculas,
partículas elementales...) el cual difiere drásticamente del macroscópico descrito por la física
clásica. Frente al determinismo característico de la teoría clásica, la teoría cuántica destaca
principalmente por una aleatoriedad de naturaleza desconocida en el mundo clásico que nos
obliga a reformular nuestra capacidad de conocer la realidad.
Todas estas peculiaridades cuánticas tan sorprendentes, y a su vez, tan distintas al mundo
visual que conocemos, no fueron puestas en práctica hasta algunos años más tarde,
obteniéndose resultados hasta el momento inalcanzables con la física clásica. A mediados del
siglo XX comenzaron a aparecer los primeros aparatos que hacían uso del nuevo conocimiento,
teniendo a día de hoy, por ejemplo, placas solares que aplican el denominado efecto
fotoeléctrico o microscopios de efecto túnel para formar imágenes 3D de átomos[1]. Sin
embargo, como se ha mencionado, no ha sido hasta finales del siglo pasado cuando se ha
descubierto el impacto de la cuántica en el campo de la información y la informática.
Ordenadores con una mayor capacidad de cómputo junto a la capacidad de obtener medidas
más precisas son ya una realidad. No obstante, los conocidos ordenadores cuánticos son tan
solo uno de los numerosos avances que ha supuesto esta fusión. Otra área destacable ha sido
el desarrollo de nuevas tecnologías de generación, transmisión y procesamiento de la
información como la encriptación cuántica.
¿Qué niño no ha jugado a enviar mensajes secretos con simples codificaciones privadas del
alfabeto? Es sabido que el campo de encriptación comenzó muchos años atrás, pero ya desde
sus inicios vivía una lucha interminable por la búsqueda de un método de encriptación que
fuera absolutamente seguro, el cual no pudiera ser copiado. Este objetivo se logró
parcialmente en 1917 cuando Gilbert Verman desarrolló el conocido protocolo One-Time-Pad
(OTP). Este algoritmo de encriptación basa su seguridad en que la clave secreta utilizada es tan
larga como el mensaje en sí mismo y además, es empleada tan solo una vez (de ahí su
nombre). Sin embargo, como se ha nombrado, el objetivo fue conseguido tan solo
parcialmente, pues en los múltiples intentos de alcanzar el perfecto algoritmo, incluido en el
OTP, la clave de la cuestión siempre era la misma: ¿Cómo comparte el emisor el código secreto
de forma segura con el receptor, el cual puede estar a miles de kilómetros de distancia? Esto
no tiene respuesta en la física clásica, pues no hay forma de comprobar si el canal clásico
3
utilizado para enviar la clave está siendo espiado o no. La razón fundamental por la que no
puede ser evaluada la seguridad del canal es, básicamente, porque en física clásica la
información puede ser duplicada. De esta manera, tanto el emisor como el receptor son
incapaces de saber si la clave ha sido copiada por un tercero. El hándicap del campo de estudio
es claro: el problema de distribución de la clave. La encriptación cuántica o también conocida
como quantum key distribution (QKD), pues alude al problema expuesto, ha supuesto la
irrefutable solución a este. A diferencia de la encriptación clásica, que fundamenta la
seguridad de sus protocolos en dificultar en la práctica la posibilidad teórica de inferir la clave,
esta nueva rama se apoya en la solidez de las propias leyes de la mecánica cuántica. El hecho
cuántico según el cual medir un sistema lo perturba, supone una de las bases fundamentales
de esta especialidad. De este modo, espiar información cuántica implica una alteración
inevitable que alerta a los usuarios autorizados de la presencia de otro. Además, los distintos
protocolos cuánticos recogen otras peculiaridades de esta ciencia como el entrelazamiento
cuántico o el teorema de no clonación. Una vez establecida la clave mediante QKD, esta puede
ser utilizada en técnicas de encriptación clásica como el ya mencionado One-Time-Pad,
permitiendo a los usuarios comunicarse con total privacidad.
El objetivo del presente trabajo es, por tanto, presentar al lector una pequeña guía de las
bases y principios que fundamentan la encriptación cuántica junto a la explicación comparativa
de los dos protocolos E91 y BB84. Asimismo, a lo largo de todo el trabajo se evalúa la
criptografía clásica frente a la cuántica, llegando a la conclusión de los innegables beneficios
que esta última presenta.
2. CRIPTOGRAFÍA CLÁSICA: FUNDAMENTOS Y PROTOCOLOS
Se define criptografía como la técnica de escribir con clave secreta, de tal forma que lo
encriptado sea inteligible tan solo para quien sepa descifrarlo. El objetivo primordial de esta
ciencia es evitar la intrusión de terceros en la comunicación entre emisor y receptor, a los que
suele referirse como Alice y Bob, haciendo la transmisión del mensaje completamente segura
frente a posibles espías, referidos como Eve del inglés “eavesdropper”. De forma general,
cuando se habla de criptografía existen dos pasos principales: codificar y descodificar.
Normalmente, el emisor codifica su mensaje creando un mensaje encriptado el cual es enviado
al receptor, quien debe descodificarlo obteniendo así, el mensaje original. Este proceso, es
decir, la forma sistemática de codificar y descodificar mensajes es lo que se conoce como
protocolo criptográfico [2]
2.1. ONE TIME PAD: EN BUSCA DEL PROTOCOLO INQUEBRANTABLE
Los orígenes de la criptografía se remontan a las primeras civilizaciones en Mesopotamia,
Egipto, India y China. Se sabe que uno de los primeros métodos utilizados fue la clave César [3]
cuyo nombre alude a los tiempos de Julio César, pues, según se cree, éste lo utilizaba para
comunicarse con sus generales. Se trataba de escribir el alfabeto desde la A a la Z en forma
circular y trasladar cada letra del mensaje a cifrar un mismo número de posiciones, por
ejemplo, 3, en el alfabeto. De esta manera, el mensaje ATAQUE, se escribía como DWDTXH,
4
pasando a ser “incomprensible”1 para cualquiera que lo interceptase. Al final, el receptor tan
solo tendría que descodificarlo moviendo cada letra del mensaje encriptado 3 posiciones en el
alfabeto en la dirección opuesta. A lo largo de la historia, debido a su uso militar y
gubernamental, se han ido desarrollando distintos cifrados con el fin de abarcar los objetivos
principales de esta ciencia: la privacidad de la comunicación y la autenticidad de los
mensajes.[4] Pero es debido al actual auge de las nuevas tecnologías como internet o negocios
electrónicos incluyendo sus transacciones telemáticas (banking, credit data o firma
electrónica) lo que ha supuesto la necesidad de la criptografía en nuestro día a día provocando
así, que esta ciencia se encuentre en continuo desarrollo.
Tras varios intentos fallidos por encontrar el algoritmo “perfecto”, Gilbert Vernam ideó en
1917 lo que se conoce hasta la fecha como el código inquebrantable, el llamado “One-Time-
Pad” (OTP)[5] o en español “libreta de un solo uso”. La seguridad de este método se
fundamenta en dos puntos esenciales: la clave es de la misma longitud que el mensaje en sí
mismo y esta se utiliza tan solo una vez. En este protocolo, Alice y Bob poseen una clave
secreta conjunta que han compartido con anterioridad. Una vez ambos conozcan esta clave, se
procede de la siguiente manera:
i. Primeramente, Alice convierte el mensaje que desea transmitir (ℳ), al que suele
referirse como “plain text”, a una forma binaria que se trata de una sucesión de 0s
y 1s mediante un método que es públicamente conocido2
ii. Seguidamente, haciendo uso de la clave secreta (key o 𝒦) que, como se ha
mencionado, es de la misma longitud que el mensaje, el emisor convierte el “plain
text” (ℳ) en un mensaje encriptado (“cipher text” o 𝒳). Para ello, combina cada
bit del mensaje con cada respectivo bit de la clave usando un sistema binario
conocido como suma en base 23
Plain text 𝓜 01001000 01101001
Key 𝓚 11010101 10010101
Cipher text 𝓧 10011101 11111100
iii. Finalmente, Alice manda el mensaje encriptado a Bob por un canal clásico, el cual
puede ser interceptado. Sin embargo, por mucho que un tercero posea una copia
del mensaje encriptado, sin el conocimiento de la clave, el mensaje cifrado es
completamente aleatorio y no da ninguna información sobre el “plain text”. En
1 Es “incomprensible” porque, ciertamente, la clave César no es un método seguro. Es decir, un espía
podría intentar las 26 combinaciones posibles de la clave para recuperar el mensaje original. Son 26 combinaciones porque el alfabeto contiene 26 letras sin contar la “ñ”. 2 Una forma posible de hacer esto es utilizando el código ASCII creado en 1963. Consiste en la asignación
a cada letra del alfabeto latino una secuencia de 8 bits. [2]
3 Suma en base 2: 0⨁0 = 0, 1 ⨁ 1 = 0, 1⨁0 = 1, 0 ⨁ 1 = 1
Plain text H i
𝓜 01001000 01101001
Figura 1. Primer paso del one-time pad. Alice convierte el mensaje “Hi” a una forma binaria [2]
Figura 2. Segundo paso de one-time pad. Se encripta el mensaje [2]
5
cambio, Bob, quien comparte la misma clave con Alice, puede descodificar lo
recibido. Para ello, tan solo necesita hacer otra suma en base 2 de cada bit del
mensaje cifrado con cada respectivo bit de la clave recuperando así el mensaje
original (ℳ). [6]
Cipher text 𝓧 10011101 11111100
Key 𝓚 11010101 10010101
𝓜 = 𝓧⨁ 𝓚 01001000 01101001
Plain text H i
Aunque es cierto que este método es completamente seguro, y así lo afirmo y verificó Claude
Shannon[7] en 1949 mediante la teoría de la información, es importante destacar que las
condiciones en las que este protocolo se basa deben ser seguidas con minuciosa cautela. La
clave, en la cual reside toda la seguridad del algoritmo, debe ser utilizada tan solo una vez por
cada mensaje enviado y ésta, además de ser de la misma longitud que el mensaje, tiene que
ser completamente aleatoria. Un claro ejemplo de la importancia de utilizar distintas claves es
lo que se conoce como Proyecto Venona[8],[9],[2]. Durante la Segunda Guerra Mundial y
principios de la Guerra Fría, la Unión Soviética hacía uso de este método para codificar sus
mensajes secretos. Desafortunadamente, cometieron el error de reutilizar sus claves pensando
que sus enemigos no se darían cuenta. Sin embargo, tras reunir un número muy elevado de
mensajes, los matemáticos de Estados Unidos y Reino Unido fueron capaces de descubrir la
clave y espiar así los mensajes mandados desde la Unión Soviética.
Asimismo, otra de las grandes dificultades que el OTP presenta es alcanzar la verdadera
aleatoriedad para las claves utilizadas, es decir, que estas no sigan un patrón o ciclo. Las claves
requeridas en el OTP, caracterizadas por su gran longitud, obstaculizan el objetivo de que un
generador de números pseudo-aleatorios propio de un ordenador consiga una completa
aleatoriedad4. Debido a esto, actualmente otros protocolos como el AES5 con claves de menor
longitud son los utilizados. Esto reduce la dificultad de encontrar claves aleatorias, pero en
contraposición, los métodos no son tan seguros como el OTP. No obstante, mediante el uso de
un generador cuántico de números aleatorios se podría erradicar este problema. Mientras que
la física clásica es determinista, es decir, las leyes físicas pueden reproducir y predecir la
evolución de un fenómeno, la cuántica es fundamentalmente aleatoria. Un claro ejemplo de
ello es la reflexión y transmisión de un fotón en un espejo semitransparente. En este caso,
existe la misma probabilidad de que el fotón sea transmitido o reflejado por el espejo. Lo
genuinamente cuántico es que un observador no podrá predecir nunca si el próximo fotón se
reflejará o será transmitido, pues existe una aleatoriedad intrínseca. Explotando este
fenómeno se puede llegar a desarrollar un verdadero generador de números aleatorios. [10]
4 La mayoría de ordenadores convencionales no poseen un verdadero generador de números aleatorios,
sino un generador de números pseudo-aleatorios. Se basa en un algoritmo que produce una secuencia de números sin orden aparente. Sin embargo, la misma secuencia se va repitiendo según un valor inicial denominado semilla que utiliza el algoritmo. 5 El AES (Advanced Encryption Standard) es de un esquema de cifrado por bloques adoptado por el
gobierno estadounidense en 2001. Las claves tienen como mínimo una longitud de 128 bits, pero también se utilizan de 192 y 256 bits
[3].
Figura 3. Tercer paso del OTP. El receptor desencripta el mensaje
6
A pesar de que ambas condiciones pueden ser cubiertas y el OTP parezca inquebrantable, este
tiene otro gran y verdadero inconveniente. Antes de que Alice comience la codificación del
mensaje, como se ha mencionado, el emisor y el receptor han debido de compartir una clave
secreta. Pero, ¿cómo realizan esto a distancia asegurándose de que no existe espionaje? La
respuesta es simple: no pueden. Es cierto que si Alice y Bob son capaces de verse físicamente
con antelación, e intercambiar la clave, este problema no existe, pero, en general, este nunca
es el caso. Ahora bien, si este encuentro es inviable, existen dos posibilidades. La primera sería
trasmitir esta clave, una secuencia de ceros y unos, por un canal clásico. Esto no supondría
ninguna solución pues en la física clásica no existe ningún principio que prevenga de que un
espía pueda copiar el código. La segunda sería utilizar mensajeros de confianza, lo que se
conoce como “seguridad física”. Lamentablemente, esta opción también es poco práctica
como nos ha demostrado la historia del espionaje.
2.2. CRIPTOGRAFÍA DE CLAVE PÚBLICA
Aunque se disponga de una buena clave, el hándicap del OTP es claro: el problema de su
distribución segura. Como solución a este problema, surgió durante mediados de los años 70
lo que se conoce como criptografía de clave pública o criptografía asimétrica (public key
distribution). De esta manera, la criptografía se dividió en dos grandes ramas: la criptografía
convencional o también conocida como criptografía de clave secreta o criptografía simétrica (a
la que pertenecen protocolos como el OTP, el DES 6 o el AES) y la criptografía de clave pública o
asimétrica, la cual no necesita que el emisor y el receptor compartan una clave secreta de
antemano.
La criptografía asimétrica o de clave pública se basa en que Bob, es decir, el receptor, posee
dos claves diferentes: una clave pública y otra privada. Mientras que la clave pública es
transmitida por Bob a través de un canal clásico de tal forma que cualquier persona pueda
obtener una copia de ella, la clave privada tan solo la tiene Bob. Para explicar esta nueva
vertiente, se suele utilizar la siguiente metáfora: Bob posee una caja que tiene un candado
cuya llave solo posee él. Esta caja es enviada abierta por Bob a Alice (clave pública a la cual
puede acceder cualquier posible emisor). Una vez recibida la caja, Alice guarda en ella el
mensaje que quiere hacer llegar a Bob, la cierra con su candado (encripta el mensaje utilizando
la clave pública) y se la envía a Bob. De esta manera, ninguna persona, incluida Alice, puede
6 El algoritmo DES (Data Encryption Standard) fue utilizado por la administración federal de EEUU a
partir de 1976. Sus claves son de tan solo 56 bits, por lo que son menos seguras (se pueden descifrar en pocas horas). Debido a esto, fue reemplazado por el algoritmo AES.
[3]
Figura 4. Esquema de un Generador cuántico de números aleatorios [10]
7
acceder al mensaje a no ser que tenga la llave del candado de la caja (clave privada). Por ello,
Alice puede enviar su mensaje encriptado a Bob con total seguridad mediante un canal clásico,
el cual puede ser espiado, pues nadie más posee la clave secreta que descodifica este
criptograma.
Matemáticamente hablando, la caja con candado en la que se apoya el protocolo de clave
pública es lo que se conoce como “one-way functions”[10], ya que son fáciles de computar, pero
difíciles de revertir. En el caso del RSA7, uno de los protocolos más famosos de los
pertenecientes a esta nueva rama, su one-way function se basa en la dificultad que le supone a
un ordenador convencional factorizar un número grande.
Sin embargo, a pesar de que los distintos protocolos de la criptografía asimétrica son mucho
más prácticos (de ahí su gran uso en la actualidad) que los pertenecientes a la criptografía
simétrica, especialmente el OTP, cabe destacar que su seguridad no es tan alta como la de este
último. La solidez del RSA, como se ha mencionado, recae en el arduo trabajo que supone
buscar dos factores primos que formen un número entero largo. No se ha descubierto hasta la
fecha ningún algoritmo eficiente que pueda realizar esta tarea en un ordenador convencional8.
No obstante, no existe ninguna prueba de que este algoritmo no pueda llegar a formularse
poniendo en peligro toda la criptografía de clave pública de la noche a la mañana.
Podemos resumir diciendo que la popularidad de la criptografía asimétrica se basa en su
facilidad a la hora de ponerla en práctica (al contrario que el OTP) y en la dificultad de romper
el código. Empero, a pesar de que en la criptografía clásica no se haya encontrado un
protocolo que consiga quebrantar la criptográfica de clave pública, en 1994 Peter W. Shor[10]
desarrolló lo que podría suponer el fin de esta. Este profesor de matemáticas aplicadas del
MIT, propuso un algoritmo capaz de factorizar enteros suponiendo una gran amenaza para el
RSA. Dicho de otra manera, supondría la destrucción de cualquier protocolo de criptografía
asimétrica conocido hasta el momento. El único inconveniente de este descubrimiento es que,
para llevarlo a cabo, se necesita un ordenador cuántico con la capacidad de un ordenador
actual. Es cierto que aunque la posibilidad de la existencia un ordenador cuántico con las
capacidades necesarias9 para hacer funcionar este algoritmo parezca lejana, el rápido avance
de la tecnología nos lo cuestiona. Por ello, debido a la amenaza que supone este hallazgo para
todo el sistema criptográfico actual, se han ido desarrollando nuevas áreas en busca de la
solución a esta. Si la principal amenaza de la criptografía es de naturaleza cuántica, es lógico
platearse que la mejor defensa venga del mismo nivel de realidad, es decir, una criptografía
genuinamente cuántica desde el principio.
7 El sistema RSA, titulado así por sus inventores Ron Rivert, Adi Shamir y Leonard Adleman, fue
inventado en 1977 [11]
8 Cabe mencionar que, en 1977, se propuso un reto para poner a prueba el RSA. Se trataba de intentar
descodificar un mensaje encriptado donde se había hecho uso del RSA. Para ello, había que factorizar un número de 129 dígitos en dos números primos de 64 y 65 dígitos. Los autores pensaron que se tardaría millones de años, pero sin embargo, tan solo hicieron falta unos años donde los ordenadores mejoraron y, tras ocho meses de trabajo, en 1994, un grupo de científicos lo resolvieron. Esta es una de las razones por las que cabe pensar que puede llegar a encontrarse un algoritmo clásico capaz de poner a prueba la criptografía de clave pública.
[12]
9 Es cierto que el 8 de enero de 2019 IBM Q System One presentó la primera computadora cuántica que
combina tanto la computación cuántica como "tradicional" para ofrecer un sistema de 20 qubits para uso comercial, de negocios e investigación. Sin embargo, su capacidad sigue siendo limitada todavía.
[13]
8
3. CRIPTOGRAFÍA CUÁNTICA: FUNDAMENTOS Y PROTOCOLOS
No es sorprendente que la solución a la amenaza de lo que supondría la existencia de los
ordenadores cuánticos se haya encontrado en el mismo campo: la cuántica. Sin embargo, sí
que es destacable que una década antes de descubrir que los ordenadores cuánticos
supondrían un peligro para la criptografía actual, se descubriese una solución para este
ataque: la criptografía cuántica. La criptografía cuántica nació en los años 70 con un artículo
nunca publicado de Stephen Wiesner. No obstante, no fue hasta 1984, cuando esta empezó a
recibir reconocimiento. Esto fue gracias a Bennet y Brassard[14], [9], quienes adoptaron, durante
los años 80, la idea de Stephen y la aplicaron en la búsqueda de una solución para el problema
de distribución de clave.
Esta nueva rama, también definida como quantum key distribution basa su seguridad en las
propias leyes de la cuántica. En contraposición a los distintos algoritmos convencionales, los
cuales se basan en suposiciones matemáticas vinculadas a la capacidad de computo de los
ordenadores utilizados, los distintos protocolos cuánticos utilizan principios cuánticos como la
aleatoriedad irreducible cuántica y el teorema de no clonación que aseguran su solidez. En los
distintos algoritmos, Alice y Bob se transmiten la clave mediante objetos cuánticos, y tras
comprobar que esta no ha sido interceptada poniendo en práctica principios cuánticos, la usan
para enviarse el mensaje encriptado mediante el inquebrantable one-time pad, es decir,
utilizando la criptografía clásica
3.1. POLARIZACIÓN
En las redes de telecomunicación, la luz es utilizada habitualmente para el intercambio de
información. Desde la perspectiva de la física clásica, la luz consiste usualmente en un campo
electromagnético que puede oscilar en cualquier dirección perpendicularmente a su dirección
de propagación. Por tanto, en la mayoría de los casos, cuando se habla de la polarización de la
luz, uno se refiere a la trayectoria que describe el campo eléctrico en el plano perpendicular al
vector de propagación, es decir, la dirección en la que el campo eléctrico oscila. Una forma
sencilla y conveniente de convertir polarización en intensidad, que es la propiedad de la luz
más fácilmente medible, es mediante el uso de polarizadores lineales. Se trata de unos
dispositivos que tienen un eje de polarización característico por el cual actúan como filtros,
pues solo pasa a través de ellos la luz que vibre en la dirección del eje del polarizador. Cabe
destacar que, para los propósitos de este trabajo, nos basta considerar polarización lineal, en
la que el campo eléctrico vibra en una dirección determinada del plano transversal a la
dirección de propagación. La polarización lineal, al tratarse de una dirección, es habitualmente
expresada clásicamente como un vector real. Para ello se hace uso de unas “bases”, las cuales
suelen referirse como “horizontal y vertical” o en otras palabras, “eje x” y “eje y”, que deben
ser ortogonales entre sí. Esto es:
�̂�𝛼 = cos𝛼 �̂�𝑥 + sen𝛼 �̂�𝑦 = cos𝛼 �̂�𝐻 + sen𝛼 �̂�𝑉 = cos𝛼 �̂�∥ + sen𝛼 �̂�⊥ , (1)
siendo α el ángulo que forma la polarización del haz con respecto al eje x, eje horizontal H,
versus vertical V, o componente paralela ∥ versus perpendicular⊥.
9
De esta manera, cuando un haz de luz atraviesa un polarizador, la fracción de luz que se verá
tras él será aquella que vibre con la misma dirección de polarización que su eje.
Matemáticamente, la intensidad (esto es, proporción de luz) que es transmitida por el
polarizador, es decir, que lo atraviesa, y la cantidad de luz que el polarizador absorbe se puede
expresar mediante la ley de Malus:
𝐼𝑇 = 𝐼0cos2𝛼 𝐼𝐴 = 𝐼0sin2𝛼 . (2)
Esto se puede entender mejor visualmente mediante la figura 5 y 6.
Por otro lado, desde un punto de vista cuántico, la luz está formada por partículas indivisibles
sin masa que se conocen como “fotones”. Desde esta perspectiva, cuando un haz de luz está
polarizado según la dirección �̂�𝛼 = cos𝛼 �̂�𝑥 + sen𝛼 �̂�𝑦, se puede decir que cada fotón que
forma dicho haz de luz está polarizado de esa manera. En el campo de la física cuántica se hace
uso de lo que se conoce como notación Dirac, por lo que propiamente se dice que cada fotón
está polarizado según:
|𝛼⟩ = cos𝛼|𝐻⟩ + sin𝛼|𝑉⟩ (3)
Tanto |𝐻⟩ como |𝑉⟩ se tratan, desde un punto de vista matemático, de vectores que forman
una base como los utilizados al expresar la polarización del haz de luz clásicamente. Es
interesante notar que no parece haber grandes cambios al pasar del dominio clásico al
cuántico. Ahora bien, aunque el fotón posea una polarización cuya expresión cuántica se
asemeje formalmente a la óptica clásica, hay un par de aspectos cruciales que distinguen la
polarización clásica de la cuántica. Lo particularmente cuántico es que cuando el fotón se
enfrente al polarizador no se dividirá en dos fragmentos de acuerdo con la ley de Malus, sino
que al ser una partícula indivisible todo él o atravesará el polarizador o será absorbido. Esto
quiere decir que cuando el fotón sea medido en la base {|𝐻⟩, |𝑉⟩} , es decir, enfrentado a un
polarizador con su eje horizontal o vertical, “colapsará” a uno de los dos estados. Puede o bien
colapsar en una polarización horizontal (|𝐻⟩), o colapsar en una polarización vertical (|𝑉⟩),
siendo, consecuentemente, absorbido o transmitido por el polarizador, sin saber de antemano
Figura 5. La luz que va a atravesar el polarizador esta polarizada formando un ángulo de 45º (flecha amarilla). Cuando lo atraviesa, según el eje de polarización de este (puede ser un polarizador lineal horizontal o vertical) tan solo se transmite el 50% de luz incidente. Esto es, según la ley de Malus
𝑰𝑻 = 𝑰𝟎𝒄𝒐𝒔𝟐𝟒𝟓º = 𝑰𝟎 ·
𝟏
𝟐 [10]
Figura 6. Luz no polarizada (no tiene una dirección de polarización preferente) atraviesa un polarizador lineal vertical, quedando tras él tan solo luz linealmente polarizada verticalmente. Al llegar al segundo polarizador, toda la luz es absorbida pues es un polarizador lineal horizontal.
[15]
10
cuál de los dos casos se dará. Asimismo, “cos2𝛼” o “sin2𝛼”10 no representa la fracción de luz
que es absorbida o transmitida por el polarizador, sino la probabilidad de que el fotón colapse
en el estado |𝐻⟩ y sea transmitido, o que colapse en |𝑉⟩ y sea absorbido o viceversa, según el
eje del polarizador. [2]
El hecho de no poder saber de antemano cuál de los dos casos ocurrirá supone una de las
grandes diferencias entre la física clásica y la física cuántica. Mientras que la física clásica es
determinista, la física cuántica se caracteriza por su aleatoriedad intrínseca. Cuando un haz de
luz está polarizado según �̂�𝛼 puede decirse que todos los fotones que lo forman están
polarizados según |𝛼⟩. De este gran número de fotones puede predecirse su comportamiento
estadístico, lo que explica que un observador vea como cierta proporción de luz atraviesa un
polarizador, pues cierta cantidad de fotones han atravesado el polarizador, como se esperaba.
Sin embargo, es imposible determinar el comportamiento de un solo fotón. Si el fotón será
transmitido o no por el polarizador es completamente aleatorio. No existe una ley que prediga
el comportamiento de un fotón con exactitud.
3.2. TEOREMA DE NO CLONACIÓN
El teorema de no clonación, por el cual, como ya se ha mencionado, es seguro intercambiar
información con objetos cuánticos, fue postulado por Wootters, Zurek y Dieks en 1982. El
teorema enuncia que cualquier estado cuántico arbitrario no puede ser duplicado
perfectamente. Esto es, dado un estado arbitrario de un fotón |𝜓⟩ , no existe ninguna máquina
capaz de copiar este fotón en otro fotón que se haya preparado previamente en cierto estado
fijo |𝑅⟩ independiente de |𝜓⟩, el cual actúa como pieza en blanco, es decir:
|𝜓⟩⨂|𝑅⟩ → |𝜓⟩⨂|𝜓⟩ No existe (4)
Este teorema está fuertemente ligado a otro postulado de la mecánica cuántica el cual expone
que si haciendo la medida de un sistema cuántico se obtiene información del estado,
entonces, en general, el sistema cuántico es perturbado. La única excepción que existe a este
principio es que se sepa de antemano que los posibles estados del sistema original son
ortogonales entre sí. Es decir, si se sabe con anterioridad que la polarización de un fotón
enviado solo puede ser linealmente vertical o linealmente horizontal, al colocar un divisor de
haz de polarización y dos detectores, se puede conocer la polarización de este fotón. Si el
fotón es reflejado, y su detector suena, se sabe que está verticalmente polarizado, de lo
contrario, el fotón está horizontalmente polarizado. Este es el único caso en donde una copia
perfecta de la polarización del fotón puede llevarse a cabo. Pues una vez sabido el estado de
polarización del fotón, se pueden hacer miles de copias de este.
10
En física cuántica, por su propia naturaleza, tiene sentido estudiar la probabilidad de que el fotón al llegar al filtro, al ser indivisible, pase o no el polarizador. Para el estudio de la probabilidad se hace uso de la regla de Born para estados puros: P(encontrar 𝜓1dado 𝜓2) = |⟨𝜓1|𝜓2⟩|2. De esta manera, P(pase por un polarizador horizontal dado α)=P(H|α)= |⟨H|α⟩|2=cos2𝛼 y P(V|α)= |⟨V|α⟩|2=sin2𝛼. Además, técnicamente, tanto como la fracción de luz calculada clásicamente, como la probabilidad de que el fotón sea transmitido o absorbido dependen de la diferencia de ángulos entre el ángulo que forma el polarizador (β) y el ángulo del eje de polarización del fotón incidente (α). Es decir, 𝑃(𝑇) =cos2(𝛼 − 𝛽) y 𝑃(𝐴) = sin2(𝛼 − 𝛽). Si se ha despreciado β es por simplificación al utilizar las bases {|𝐻⟩, |𝑉⟩}
11
Para demostrar el teorema de no clonación, se asume que la transformación anterior es válida
para las bases {|𝐻⟩, |𝑉⟩} , es decir, sí existe:
|𝐻⟩⨂|𝑅⟩ → |𝐻⟩⨂|𝐻⟩, (5)
|𝑉⟩⨂|𝑅⟩ → |𝑉⟩⨂|𝑉⟩ . (6)
Sin embargo, a la hora de transformar el estado |↗⟩ =1
√2(|𝐻⟩ + |𝑉⟩), es decir, un estado
arbitrario, esta operación no funciona:
|↗⟩⨂|𝑅⟩ → |↗⟩⨂|↗⟩ No existe (7)
Por un lado, el lado izquierdo de la ecuación anterior (7), sabiendo que las trasformaciones
cuánticas han de ser lineales, resultaría como:
|↗⟩⨂|𝑅⟩ =
1
√2(|𝐻⟩ + |𝑉⟩)⨂|𝑅⟩ =
1
√2(|𝐻⟩⨂|𝑅⟩ + |𝑉⟩⨂|𝑅⟩). (8)
Aplicando (5) y (6), se transforma (8) como:
|↗⟩⨂|𝑅⟩ →
1
√2(|𝐻⟩⨂|𝐻⟩ + |𝑉⟩⨂|𝑉⟩) (9)
mientras que el lado derecho de (7) quedaría como:
|↗⟩⨂|↗⟩ = [1
√2(|𝐻⟩ + |𝑉⟩)] ⨂ [
1
√2(|𝐻⟩ + |𝑉⟩)]
=1
2(|𝐻⟩⨂|𝐻⟩ + |𝐻⟩⨂|𝑉⟩ + |𝑉⟩⨂|𝐻⟩ + |𝑉⟩⨂|𝑉⟩) .
(10)
Como se observa, ambos lados de la ecuación (7) no coinciden. Esto es, (9) y (10) no han
resultado ser lo mismo, demostrando así que un estado arbitrario cuántico no puede ser
duplicado perfectamente. [2]
Por tanto, como se verá a continuación en la explicación del protocolo BB84, con el uso de
objetos cuánticos como los fotones, los cuales no son divisibles, y aplicando el teorema de no
clonación, la comunicación entre el emisor y el receptor es complemente segura. Un intruso
que pretenda espiar la comunicación nunca será capaz de tomar parte de un fotón, dejando la
otra parte que continúe su curso; este es indivisible, y, por ello, lo único que puede hacer es
medirlo, perturbando así el estado original de este. Asimismo, vinculado con lo anterior, el
teorema de no clonación expone como, al utilizar 4 posibles estados linealmente dependientes
(horizontal, vertical, 45o y 135o) y no 2 conocidos con anterioridad ortogonales entre sí, es
imposible duplicar el fotón, haciendo la intervención de Eve completamente perceptible para
Alice y Bob. [9]
3.3. EL PROTOCOLO BB84
El protocolo BB84[14], titulado así por sus inventores Bennet y Brassard y el año en el que éste
fue publicado 1984, supuso el comienzo de la nueva rama de la criptografía, la criptografía
cuántica o quantum key distribution. La forma de aplicar la cuántica tanto en este, como en
12
otros protocolos de la rama, se basa en codificar los bits digitales en objetos cuánticos y aplicar
leyes cuánticas. En muchísimos ámbitos se hace uso de la luz para codificar la información, y
normalmente, se utilizan pulsos de luz que contienen millones de fotones; sin embargo, en la
criptografía cuántica es necesario que cada pulso encierre un solo fotón por las razones
comentadas. De esta manera, cada bit de información se codifica o imprime en un pulso de luz
que se envía a través de una fibra óptica (lo que se conoce como canal cuántico) al receptor,
donde se registra y se transforma de nuevo en una señal electrónica (un bit).
Los pasos a seguir son los siguientes:
i) Comunicación cuántica: Alice envía Bob un gran número de fotones polarizados
linealmente. Para ello, el emisor hace uso de dos bases:
(1) Base + , {|𝐻⟩, |𝑉⟩} , siendo:
𝑏𝑖𝑡 0 → |𝐻⟩ (11)
𝑏𝑖𝑡 1 → |𝑉⟩ (12)
(2) Base X, {|↗⟩, |↖⟩} , formando un ángulo de 45o y 135o respectivamente:
𝑏𝑖𝑡 0 → |↗⟩ 𝑠𝑖𝑒𝑛𝑑𝑜 |↗⟩ =
1
√2(|𝐻⟩ + |𝑉⟩) (13)
𝑏𝑖𝑡 1 → |↖⟩ 𝑠𝑖𝑒𝑛𝑑𝑜 |↘⟩ =
1
√2(|𝐻⟩ − |𝑉⟩) (14)
Los fotones emitidos son preparados por Alice con una de las 4 polarizaciones
expuestas de forma aleatoria11 y enviados a Bob. De esta forma, el teorema de no
clonación puede ser aplicado; ya que no se trata tan solo de 2 posibles estados de
polarización ortogonales entre sí, sino de 4 linealmente dependientes.
Al recibir cada fotón, Bob elige de forma aleatoria, pues no sabe qué base ha
utilizado Alice, una de las dos bases + y X para medirlo. Para implementar la
medida en la base +, una opción sería utilizar un polarizador vertical, de tal forma
que, si por casualidad, el fotón está polarizado en esa base verticalmente (|𝑉⟩), el
fotón sería transmitido con total seguridad, obteniendo un bit 1; si por lo
contrario, se encuentra polarizado |𝐻⟩, el fotón sería absorbido, obteniendo Bob
un bit 0. Sin embargo, existe la posibilidad de que el fotón haya sido preparado en
la base X. En ese caso, la probabilidad de que el fotón sea absorbido (obteniendo
un bit 0) o transmitido (obteniendo un bit 1), tanto si este está polarizado según
|↗⟩ o según |↖⟩ es de, siguiendo la regla de Born:
11
Cabe mencionar la importancia de la aleatoriedad en este método. Esta aleatoriedad se refiere a que nadie, ni el propio emisor sepa por anticipado la base de polarización. En cuanto alguien posea esta información, ésta puede ser filtrada, y por tanto, clonarse los fotones. Asimismo, estos números deben ser completamente aleatorios y no proceder de un generador de números pseudo-aleatorios que produce la repetición de una misma secuencia de bits. Si se siguiese un patrón, Eve podría descubrirlo poniendo en juego la seguridad total del sistema.
13
𝑃(𝐻| ↗) = 𝑃(𝐻| ↘) = 𝑃(𝑉| ↗) = 𝑃(𝑉| ↘) =1
2 . (15)
Por otro lado, para implementar la medida en la base X, una de las opciones sería
utilizar un polarizador cuyo eje forme 135o. En ese caso, si el fotón resultase estar
polarizado |↗⟩, sería absorbido con total certeza, obteniendo un bit 0, y sería
transmitido si su polarización fuese |↘⟩, obteniendo un bit 1. Al igual que
anteriormente, si el fotón está preparado según |𝐻⟩ o |𝑉⟩, la probabilidad de que
sea transmitido o absorbido es la misma, es decir, 1/2.
Por tanto, no existe correlación entre los bits de Alice y Bob cuando las bases
utilizadas difieren, es decir, en general la lista secuencial de bits de Alice y Bob no
concuerda.
ii) Reconciliación de bases
Una vez enviados y medidos todos los fotones, Alice y Bob publican por un canal
clásico, como el móvil o internet, qué base han elegido para cada uno de los
fotones intercambiados, sin declarar el resultado de la medida. Una vez hecho
esto, desechan aquellos fotones que no comparten la misma base, pues no están
correlacionados. Los fotones restantes, que serán aproximadamente la mitad, son
los que constituyen la raw key. Debido a que comparten base, estos bits deberían
ser idénticos si se desprecia las propias imperfecciones del sistema y la posible
alteración que pueda producir un tercero.
iii) Classical post-processing
Una vez obtenida la raw key, Alice y Bob comparan los resultados conseguidos de
una cierta cantidad de fotones en busca de errores y por tanto, de posibles
intrusos pues en realidad, los bits deberían ser iguales. Si el número de errores es
mínimo, aplican error correction para conseguir un mayor número de bits idénticos
y privacy amplification para hacer que la poca información que pueda tener el
espía sea despreciable. En cambio, si la cantidad de errores es abundante,
descartan toda la clave y vuelven a empezar.
Suponiendo que haya habido espionaje en el proceso de distribución de clave, ¿cómo se
podría detectar? Para empezar, el ataque habitual que puede realizar Eve sería el intercept-
resend. Consiste en interceptar los fotones, medirlos con una base elegida aleatoriamente, y
de acuerdo con su resultado, enviarle un nuevo fotón a Bob haciéndose pasar por Alice. Ahora
bien, una vez realizada la reconciliación de bases, Alice y Bob obtienen la raw key, que debería
ser una secuencia idéntica de bits. Si por algún casual Eve ha utilizado la misma base que Alice,
sus fotones estarán correlacionados y, por ello, el fotón enviado desde Eve a Bob será el
correcto, pasando inadvertida la interacción de Eve. Sin embargo, si la base de Alice y Eve no
coincide, el resultado obtenido por Eve será completamente aleatorio. Por ello, el fotón que
Eve envía estará en la base incorrecta, y, por tanto, el resultado de Bob vuelve a ser
completamente aleatorio. Puede que obtenga el mismo bit que Alice envió en un principio,
pero puede también que no. Debido a esto, se puede entender que la interacción de un
tercero en la comunicación suponga un gran número de errores en la parte de la clave que
14
Alice y Bob comparte públicamente con el fin de encontrar errores. Un esquema de los
distintos casos posibles junto a su explicación está representado en la figura 7, a continuación.
Si se parte de que cada persona que pueda estar posiblemente involucrada en la
comunicación, es decir, Alice, Eve y Bob, tienen 4 posibles estados en los que medir la
polarización de los fotones, se puede predecir que existen, por tanto, 64 casos posibles (4·4·4).
Sin embargo, una vez realizada la “reconciliación de bases”, se puede suponer que los casos en
los que las bases concuerdan se reducen a la mitad, es decir, a 32. No obstante, por
estadística, se puede asumir que de esos 32 casos 16 se han hecho con la base + y otros 16 con
la base X. Esos primeros 16 casos posibles (los de base +) son los estudiados en la Figura 7. No
obstante, cabe mencionar, que aunque no se estudien los otros 16 casos de base X, la
situación es análoga.
Caso nº Alice envía Eve mide 𝑷𝑬𝒗𝒆 𝒎𝒊𝒅𝒂 𝒆𝒔𝒐 Bob 𝑷𝑩𝒐𝒃 𝑷𝒇𝒊𝒏𝒂𝒍
1 + → |𝐻⟩ + → |𝐻⟩ 1 + → |𝐻⟩ 1 1 2 + → |𝐻⟩ + → |𝐻⟩ 1 + → |𝑉⟩ 0 0 3 + → |𝐻⟩ + → |𝑉⟩ 0 + → |𝐻⟩ 1 0 4 + → |𝐻⟩ + → |𝑉⟩ 0 + → |𝑉⟩ 0 0 5 + → |𝐻⟩ X → |↗⟩ 1/2 + → |𝐻⟩ 1/2 1/4 6 + → |𝐻⟩ X → |↗⟩ 1/2 + → |𝑉⟩ 1/2 1/4 7 + → |𝐻⟩ X → |↘⟩ 1/2 + → |𝐻⟩ 1/2 1/4 8 + → |𝐻⟩ X → |↘⟩ 1/2 + → |𝑉⟩ 1/2 1/4
9 + → |𝑉⟩ + → |𝐻⟩ 0 + → |𝐻⟩ 0 0 10 + → |𝑉⟩ + → |𝐻⟩ 0 + → |𝑉⟩ 1 0 11 + → |𝑉⟩ + → |𝑉⟩ 1 + → |𝐻⟩ 0 0 12 + → |𝑉⟩ + → |𝑉⟩ 1 + → |𝑉⟩ 1 1 13 + → |𝑉⟩ X → |↗⟩ 1/2 + → |𝐻⟩ 1/2 1/4 14 + → |𝑉⟩ X → |↗⟩ 1/2 + → |𝑉⟩ 1/2 1/4 15 + → |𝑉⟩ X → |↘⟩ 1/2 + → |𝐻⟩ 1/2 1/4 16 + → |𝑉⟩ X → |↘⟩ 1/2 + → |𝑉⟩ 1/2 1/4
Figura 7. 16 Posibles casos del BB84 con la base +. La columna 𝑃𝐸𝑣𝑒 indica la probabilidad de que Eve obtenga lo indicado según el fotón enviado por Alice. Asimismo, 𝑃𝐵𝑜𝑏 indica la probabilidad de que Bob mida lo indicado según lo enviado por Eve y por último, 𝑃𝑓𝑖𝑛𝑎𝑙 indica la probabilidad de que tanto Eve como Alice hayan medido lo
expuesto. Para hallar esta última: 𝑃𝑓𝑖𝑛𝑎𝑙 = 𝑃𝐸𝑣𝑒 ∙ 𝑃𝐵𝑜𝑏 .Existen otros 16 casos posibles con la base X [2]
Como se observa, la fracción media de información sobre los fotones que Eve posee es 1/2,
pues la mitad de las veces, estadísticamente, Eve elige la base correcta. Asimismo, existe la
posibilidad de que el fotón medido por Bob, aun habiendo compartido base, no coincida con el
enviado por Alice debido a la existencia de un espía que perturbe los fotones. La probabilidad
de que los fotones no sean idénticos es lo que se conoce como quantum bit error date (QBER
escrito como Q). En la figura 7, se puede apreciar que la probabilidad de que esto suceda es
de:
𝑄 =
𝐶𝑎𝑠𝑜𝑠 𝑞𝑢𝑒 𝑛𝑜 𝑐𝑜𝑚𝑝𝑎𝑟𝑡𝑒𝑛 𝑏𝑖𝑡
𝐶𝑎𝑠𝑜𝑠 𝑝𝑜𝑠𝑖𝑏𝑙𝑒𝑠=
4 𝑐𝑎𝑠𝑜𝑠 (𝑐𝑎𝑠𝑜 𝑛º6, 8, 13 𝑦 15)
16 𝑐𝑎𝑠𝑜𝑠= 25% (16)
Actualmente, sin embargo, se debe tener en cuenta que el poder de computo de un intruso
puede ser mucho mayor. Para ello, se hace uso de la teoría clásica de la información, una rama
de las matemáticas aplicadas creada en 1946 por Shannon[7] que sienta la bases de las
comunicaciones modernas y del data processing. Gracias a ella, se sabe que el conocimiento
15
que Eve posee se calcula con respecto al de Bob es decir, basándose en los errores
encontrados en la raw key:
𝐼𝐸𝑣𝑒 = 1 − 𝐼𝐵𝑜𝑏 = −𝑄𝑙𝑜𝑔2𝑄 − (1 − 𝑄)𝑙𝑜𝑔2(1 − 𝑄) (17)
Resolviendo esta ecuación, resulta 𝐼𝐸𝑣𝑒 = 𝐼𝐵𝑜𝑏, (la información de Bob y Eve es la misma)
cuando Q>11%. Por tanto, por encima de este límite Eve ha conseguido realizar un ataque
perfecto y la clave debe ser desechada. Si por lo contrario, Q está por debajo del umbral
(𝑄 < 11%), Bob posee mayor información que Eve. En este caso, se podrá continuar con el
procedimiento, pasando al classical post-processing con el fin de minimizar los errores,
produciendo más cadenas de bits correlacionados (error correction) y reducir la poca
información que posea Eve (privacy information). [2]
3.4. LA PARADOJA EPR: ENTRELAZAMIENTO CUÁNTICO
Otras de las peculiaridades cuánticas que asienta la base de la seguridad de los distintos
protocolos cuánticos es lo que se conoce como entrelazamiento. El entrelazamiento cuántico
es el fenómeno por el cual dos partículas o subsistemas están correlacionados más allá de lo
que permite explicar un sencillo sistema causal clásico. A veces se ilustra diciendo que una
medida realizada en una de las partículas influencia el estado de otra con la que está
entrelazada instantáneamente, aunque estén a años luz de distancia.
Esta posibilidad fue expuesta por primera vez en 1935 en lo que se conoce como la paradoja
EPR, titulada así por sus autores Einstein, Podolsky y Rosen[4]. Se trataba de un experimento
mental (pues las condiciones requeridas eran ideales) que partía de un sistema compuesto por
dos fotones entrelazados (aunque estrictamente hablando los autores se referían a partículas
sin especificar su naturaleza y hablaban de las variables posición y momento). De esta
manera, al estar entrelazados, en el momento en que se medía el estado de un fotón se sabría
instantáneamente el estado del otro. Una de las posibilidades es que o ambos fotones estén
polarizados horizontalmente, o ambos verticalmente:
1
√2|𝐻⟩⨂|𝐻⟩ +
1
√2 |𝑉⟩⨂|𝑉⟩ = =
1
√2(|𝐻𝐻⟩ + |𝑉𝑉⟩), (18)
El significado preciso de entrelazamiento entre dos fotones es que estos no pueden ser
descritos de forma independiente. Es decir, ninguno de los dos fotones posee por sí solo un
estado bien definido con propiedades bien definidas. Lo que sucede es que sus propiedades
están entrelazadas de tal manera que son sus estados relativos los que están bien definidos.
Esto es, al saber, por ejemplo en (18), que el primer fotón es medido como |𝐻⟩, el segundo
fotón tiene que colapsar necesariamente en |𝐻⟩. Para comprobar esto se va a tomar la
ecuación (18). Como se ha dicho, se trata de un sistema compuesto por dos fotones, y como ya
sabemos, el estado de un fotón se puede describir como (3). Luego el estado para dos fotones,
si se tratase de dos fotones cuyos estados fueran independientes, sería:
|𝜓⟩ = |𝛼⟩⨂|𝛽⟩ = cosαcosβ|𝐻𝐻⟩ + cosαsinβ|𝐻𝑉⟩ + sinαcosβ|𝑉𝐻⟩ + sinαsinβ|𝑉𝑉⟩ . (19)
Sin embargo, a la hora de igualar (18) con (19), resulta que cosαcosβ = sinαsinβ =1
√2
mientras que cosαsinβ = sinαcosβ = 0, lo que es contradictorio. Por tanto, se ha podido
16
demostrar que el estado de entrelazamiento de dos fotones, un estado completamente válido,
supone que cada fotón no pueda describirse independientemente[2].
Esta interdependencia del estado de dos partículas más allá de la influencia causal fue
propuesta por Einstein y sus compañeros como un absurdo siendo un contraargumento de la
teoría cuántica. Basándose en principios clásicos como el realismo y el principio de localidad,
defendían que la mecánica cuántica se trataba de una teoría física incompleta. Si nada puede
viajar a mayor velocidad que la luz en el vacío, es imposible que el segundo fotón se pueda
enterar al instante del resultado de una medida elegida arbitrariamente en el primero
teniendo una influencia sobre sus propiedades (localidad). Asimismo, una partícula debe tener
un estado bien definido anterior a su observación (realismo).
3.5. TEOREMA DE BELL
A pesar de que la paradoja EPR hizo hincapié en uno de los principios cuánticos más
interesantes, no fue hasta 1964 que éste fue investigado en profundidad por el físico John S.
Bell. Para comenzar su estudio se basó en una posible teoría de variables ocultas en un modelo
de causación clásico que pudiese explicar el entrelazamiento cuántico y el problema de no
localidad que éste supone. Concluyó su trabajo con la conocida desigualdad de Bell, que al ser
quebrantada, pone de manifiesto la imposibilidad de una teoría determinista local de variables
ocultas.
Para explicar esto, primeramente se introduce el coeficiente de correlación (E(a,b)) que se
trata de una medida del grado de correlación que existe entre los fotones. Si se parte del
estado singlete, estado máximamente entrelazado que representa el estado de polarización de
los dos fotones que viajan desde la fuente hacia Alice y Bob respectivamente:
|𝜓−⟩ =
1
√2(|𝐻𝑉⟩ − |𝑉𝐻⟩) , (20)
y sabiendo que los posibles resultados tras el polarizador que pueden medir Alice (fotón a) y
Bob (fotón b) son +1 (si el fotón atraviesa el polarizador) y -1 (si el fotón es absorbido), se
puede calcular el coeficiente de correlación como el valor medio esperado entre los resultados
medidos por ambos conjuntamente, es decir:
𝐸(𝑎, 𝑏) = ⟨𝑎𝑏⟩ = 1 · 1 · 𝑝+,+ + 1 · (−1) ⋅ 𝑝+,− + (−1) ⋅ 1 ⋅ 𝑝−,+ + (−1)
⋅ (−1) ⋅ 𝑝−,− = 𝑝+,+ − 𝑝+,− − 𝑝−,+ + 𝑝−,− , (21)
donde 𝑝𝑗,𝑘 son las probabilidades conjuntas de que el correspondiente fotón pase, 𝑗, 𝑘 = + o
no pase 𝑗, 𝑘 = − calculadas como:
𝑝+,+ = |(⟨𝑎|⨂⟨𝑏|)|𝜓−⟩|2, 𝑝+,− = |(⟨𝑎|⨂⟨𝑏⊥|)|𝜓−⟩|2, (22)
𝑝−,+ = |(⟨𝑎⊥|⨂⟨𝑏|)|𝜓−⟩|2, 𝑝−,− = |(⟨𝑎⊥|⨂⟨𝑏⊥|)|𝜓−⟩|2, (23)
siendo |𝑎⟩ 𝑦 |𝑏⟩ los vectores reales que representa las direcciones de los ejes de los correspondientes polarizadores:
|𝑎⟩ = cos𝛼𝑎|𝐻⟩ + sin𝛼𝑎|𝑉⟩ |𝑎⊥⟩ = cos𝛼𝑎|𝑉⟩ − sin𝛼𝑎|𝐻⟩, (24)
17
|𝑏⟩ = cos𝛼𝑏|𝐻⟩ + sin𝛼𝑏|𝑉⟩ |𝑏⊥⟩ = cos𝛼𝑏|𝑉⟩ − sin𝛼𝑏|𝐻⟩. (25)
De esta manera, se pueden calcular las distintas probabilidades, obteniendo:
𝑝+,+ = |(⟨𝑎|⨂⟨𝑏|)|𝜓−⟩|2 =1
2sin2(𝛼𝑎 − 𝛼𝑏) =
1
4[1 − cos2(𝛼𝑎 − 𝛼𝑏)] = 𝑝−,− (26)
𝑝+,− = 𝑝−,+ =
1
4[1 + cos2(𝛼𝑎 − 𝛼𝑏)]. (27)
Sustituyendo (26) y (27) en (21) se obtiene:
𝐸(𝑎, 𝑏) = −cos [2(𝛼𝑎 − 𝛼𝑏)] (28)
Los posibles resultados de 𝐸(𝑎𝑏) (28) abarcan desde -1 a +1. El límite -1 es el valor conocido
como anti-correlación donde los fotones tendrán resultados opuestos (trasmitido y absorbido
o viceversa) y el limite +1 se denomina la perfecta correlación donde ambos fotones serán o
transmitidos o absorbidos. [2]
Este es el resultado puramente cuántico. Sin embargo, es conveniente examinar las
correlaciones que predeciría una teoría realista y local. En los comienzos de la teoría cuántica,
Einstein defendía la idea clásica de que todos los sistemas físicos tienen a nivel microscópico
elemental valores bien definidos de cualquier magnitud física independientemente del
observador. Desde este punto de vista, la aleatoriedad cuántica que se ha observado sería el
resultado de ignorar variables microscópicas que escapan a nuestro control. Esto recibió el
nombre de variables ocultas (𝜆). John S. Bell pudo demostrar que esta suposición tenía
consecuencias comprobables. Para ello, partió de la suposición de que el resultado medido por
Alice y Bob dependiese tan solo de los ajustes de sus respectivos instrumentos (parámetros
controlables) y de unos parámetros incontrolables (variables ocultas 𝜆 con cierta distribución
de probabilidad 𝜌(𝜆)). Con ello, la función de correlación se puede calcular como:
𝐸(𝑎, 𝑏) = ∫ 𝐴(𝑎, 𝜆)𝐵(𝑏, 𝜆)𝜌(𝜆)𝑑𝜆 , (29)
donde 𝐴(𝑎, 𝜆) = ±1, 𝐵(𝑏, 𝜆) = ±1, representan el resultado de la medida de Alice con el
polarizador 𝑎 y el de la medida de Bob con el polarizador 𝑏12, respectivamente, y además 𝜌(𝜆)𝑑𝜆 ≥ 0 y ∫ 𝜌(𝜆)𝑑𝜆 = 1. Si ahora se consideran dos posibles ajustes para cada participante, es decir, dos direcciones en
las que dirigir su polarizador, a y a’ y b y b’, se puede calcular13:
𝐸(𝑎, 𝑏) − 𝐸(𝑎, 𝑏′) = ∫[𝐴(𝑎, 𝜆)𝐵(𝑏, 𝜆){1 ± 𝐴(𝑎′, 𝜆)𝐵(𝑏′, 𝜆)}]𝜌(𝜆)𝑑𝜆 −
∫[𝐴(𝑎, 𝜆)𝐵(𝑏′, 𝜆){1 ± 𝐴(𝑎′, 𝜆)𝐵(𝑏, 𝜆)}]𝜌(𝜆)𝑑𝜆 (30)
que aplicando la restricción |𝐴(𝑎, 𝜆)| ≤ 1 |𝐵(𝑏, 𝜆)| ≤ 1 (31)
12
La idea de localidad está plasmada en la mutua independencia de los resultados de las medidas de A y B en (29) donde se ha escrito A(a, λ) y B(b, λ) en vez de 𝐴(𝑎, 𝑏, 𝜆) 𝑦 𝐵(𝑏, 𝑎, 𝜆) 13
Para una demostración más minuciosa del procedimiento seguido desde (30) hasta obtener (32) véase Chapter 20: Bell's Theorem and Its Consequences. Ballentine, L. E. (1998). Quantum Mechanics: A Modern Development.
18
se consigue la siguiente expresión: |⟨𝑆⟩| = |𝐸(𝑎, 𝑏) − 𝐸(𝑎, 𝑏′)| + |𝐸(𝑎′, 𝑏′) + 𝐸(𝑎′, 𝑏)| ≤ 2. (32)
Esta relación es lo que se conoce como desigualdad de Bell. Si esta se cumple, no se puede
excluir la existencia de variables ocultas causantes del entrelazamiento cuántico y sus
propiedades. En cambio, si la desigualdad es violada, como se ha podido comprobar
experimentalmente para ciertas orientaciones, se puede concluir que la teoría determinista
local de variables ocultas es incompatible con la mecánica cuántica.
3.6. PROTOCOLO E91
Basándose en el teorema de Bell anteriormente expuesto y en el entrelazamiento cuántico,
Artur K. Ekert propuso un nuevo algoritmo en 1991: el protocolo E91[16]. En este método, Alice
prepara dos fotones entrelazados y estos son distribuidos de modo que Alice y Bob tengan
cada uno, uno de los dos fotones.
i. Según van llegado los fotones a cada participante, estos utilizan una base elegida
aleatoriamente para medirlos siendo los posibles resultados o +1 (fotón transmitido) o -1
(fotón absorbido). Estas posibles direcciones pueden ser14:
ii. Una vez hayan sido transmitidos y medidos todos los fotones según una de las tres
opciones de (33) para Alice y (34) para Bob, Alice y Bob comparten públicamente la
dirección escogida para medir cada fotón, sin revelar el resultado obtenido. A
continuación, dividen los pares de fotones en dos grupos diferentes: el primer grupo
contiene aquellos fotones para los cuales las orientaciones elegidas difieren. Mientras que
el segundo incluye aquellos para los cuales las direcciones son iguales, es decir, aquellos
pares de fotones donde para medir el que le ha llegado, Alice ha utilizado 𝑎2 o 𝑎1 y Bob
para el suyo 𝑏3 o 𝑏2, respectivamente.
iii. Tras esto, comparten los resultados obtenidos para los fotones del primer grupo. De este
modo, Alice y Bob son capaces de calcular el valor de S. Si los fotones no han sido
interceptados, el valor de S debería ser según (32) y (28):
14
Estrictamente hablando, en el artículo original, Ekert se basa en pares de partículas entrelazadas de spin ½ y no en fotones. Asimismo, las orientaciones que se exponen para medir el componente spin difieren de las aquí propuestas. Sin embargo, a pesar de las diferencias, los resultados y objetivos se logran igualmente.
𝑎1 = 0, 𝑎2 =𝜋
8 , 𝑎3 =
𝜋
4
𝑏1 = −𝜋
8 , 𝑏2 = 0, 𝑏3 =
𝜋
8
(33) (34)
Figura 8. Posibles orientaciones para E91
19
𝑆 = 𝐸(𝑎1, 𝑏3) + 𝐸(𝑎3, 𝑏3) + 𝐸(𝑎1, 𝑏1) − 𝐸(𝑎3, 𝑏1) =
= −cos (−𝜋
4) − cos (−
𝜋
4) − cos (−
𝜋
4) + cos (
3𝜋
4) = −2√2
(35)
Por tanto, si existiese un intruso, entonces 𝑆 ≠ 2√2 . De esta manera, Alice y Bob pueden
confirmar si la comunicación ha sido segura y por consiguiente, utilizar los fotones del
segundo grupo como clave. Estos fotones, al compartir base, están perfectamente anti-
correlacionados, es decir:
𝐸(𝑎1, 𝑏2) = 𝐸(𝑎2, 𝑏3) = − cos(0) = −1, (36)
por lo que se sabe con la máxima certeza que los resultados de Alice Y Bob son contrarios y
se pueden convertir en una secuencia de bits secreta.
Si por algún casual existiese un espía, su participación en la distribución de los fotones
supondría una perturbación fácilmente reconocible basándose en la propia mecánica cuántica,
al igual que se hacía en el protocolo BB84. En este caso, su intervención sería equivalente a
introducir elementos de realidad física a la medida de la polarización de los fotones. En ese
caso, S se calcularía como:
𝑆 = ∫ 𝜌(𝑛𝑎, 𝑛𝑏)𝑑𝑛𝑎𝑑𝑛𝑏[(𝑎1 · 𝑛𝑎)(𝑏1 · 𝑛𝑏) − (𝑎1 · 𝑛𝑎)(𝑏3 · 𝑛𝑏)
+ (𝑎3 · 𝑛𝑎)(𝑏1 · 𝑛𝑏) + (𝑎3 · 𝑛𝑎)(𝑏3 · 𝑛𝑏)] (37)
donde 𝑛𝑎 𝑦 𝑛𝑏 constituyen vectores unitarios para los fotones a y b, respectivamente
orientados en la dirección de los ejes que utiliza el intruso y la probabilidad normalizada
𝜌(𝑛𝑎 , 𝑛𝑏) describe la estrategia del espía. Por tanto, el tercero rompe las propiedades del
entrelazamiento, y esto se puede comprobar haciendo uso de la desigualdad de Bell, ya
expuesta. Es decir, si al calcular S se obtiene −2 ≤ 𝑆 ≤ 2, Alice y Bob descartan la clave por la
existencia de un extraño.
4. CONCLUSIÓN
Desde sus inicios el talón de Aquiles de la criptografía ha sido “el tercer ojo”, esa intrusión no
deseada de un extraño observador que sigilosamente y sin ser detectado se interpone entre
un emisor y su receptor. Cada vez que un nuevo ataque se producía, los protocolos
criptográficos tenían que ser revaluados, produciéndose una lucha interminable entre
codificadores y descodificadores A pesar de haber hallado el algoritmo inquebrantable, “el
tercer ojo” podía seguir “viendo” sin ser visto. Ha sido gracias al desarrollo de la luz cuántica,
casi un siglo más tarde, cuando el “el tercer ojo” ha empezado a ser visto.
A lo largo del trabajo se han ido exponiendo los distintos protocolos tanto los pertenecientes a
la física clásica como los basados en la teoría cuántica, haciendo así un repaso a la historia de
esta ciencia. Desde la clave César, pasando por el OTP y su mejora con la clave pública
(protocolos clásicos) hasta llegar al BB84 y el E91 (protocolos cuánticos) se han ido formulando
sus pros y contras con un resultado claramente a favor de los protocolos cuánticos.
Tras advertir que un ordenador cuántico con las mismas capacidades que un ordenador
moderno podría suponer una gran amenaza para la criptografía actual (imprescindible en el
mundo tecnológico en el que vivimos: firma electrónica, compra online…), se constató que la
propia cuántica era la solución a este problema.
20
El BB84 basado principalmente en el teorema de no clonación, vinculado a la idea de que
medir un sistema lo perturba, fue el comienzo de la criptografía cuántica. Se debe hacer
hincapié en la importancia de la perspectiva cuántica en este método pues le proporciona una
base sólida gracias a sus leyes irrefutables. Si desde un punto de vista clásico se siguiese el
mismo procedimiento, éste no resultaría igual de eficaz. Es decir, si en vez de tratarse de
emisiones de fotones individuales, Alice enviase un paquete de ondas, Eve podría copiar cada
haz de luz sin ninguna dificultad. Para ello, tan solo tendría que utilizar divisores de haz,
haciendo tantas copias exactas de menor intensidad como fuera necesario para determinar el
contenido del pulso y con esa información luego replicar el pulso original que enviaría a Bob,
pasando su intrusión completamente inadvertida.
Analizados los protocolos clásicos y vistas sus lagunas (poder ser quebrantados por un
ordenador con una mayor capacidad de cómputo como sería el cuántico que utiliza qubits) la
aparición de la criptografía cuántica supone la salvación de esta ciencia. La teoría cuántica, una
de las teorías más interesantes y misteriosas de la historia de la humanidad, nos ha obligado a
reformular nuestra visión de la realidad. Si otros descubrimientos han supuesto grandes
avances en la ciencia, quien sabe lo que la “revolucionaria” cuántica nos deparará.
5. REFERENCIAS
[1] Versyp, T. (2017). Aplicaciones de la Física Cuántica. Cuántica, conciencia y cosmología.
[2] Scarani, V., Lynn, C., & Yang, L. S. (2010). SIX QUANTUM PIECES A First Course in Quantum Physics. Singapore: World Scientific Publishing Co. Pte. Ltd.
[3] Wagner, N. R. (2003). The Laws of Cryptography with Java Code. [4] Alvarez, L. C., Fritis Palacios, R., & Collao Caiconte, P. (2015). Revista chilena de ingeniería,
23(2), 245-258. [5] Vernam, G. S. (1926). Cipher printing telegraph systems for secret wire and radio
telegraphic communications‖, J. Amer. Inst. Elec. Eng., 45, 109-115. [6] Lo, H.-K., & Zhao, Y. (2009). Quantum Cryptography. Encyclopedia of Complexity and
Systems Science, 8, 7265-7289.
[7] Shannon, C. E. (1949). Communication theory of secrecy systems, Bell Syst. Tech. J., 28, pp.656-715.
[8] Haynes, J. E. and Klehr, H., Venona: decoding Soviet espionage in America, Yale University Press, 1999.
[9] Qi, B., Quian, L., & Lo, H.-K. (2010). A brief introduction of quantum cryptography for engineers.
[10] Understanding Quantum Cryptography. (2020). ID QUANTIQUE SA.
[11] Rivest, R. L., Shamir, A., and Adleman, L. M., ―A method for obtaining digital signatures and public-key cryptosystems‖, Commun. ACM, 21, pp.120-126, 1978
[12] Hughes, R. J., Alde, D., Dyer, P., Luther, G., Morgan, G., & Schauer, M. (1995). Quantum Cryptography.
[13] RUS, C. (8 de Enero de 2019). Xataka. Obtenido de https://www.xataka.com/ordenadores/ibm-presenta-ibm-q-system-one-primer-ordenador-cuantico-para-uso-comercial
[14] Bennett, C. H., and Brassard, G., Quantum cryptography: public key distribution and coin tossing‖, in Proceedings of the IEEE International Conference on Computers, Systems and Signal Processing, Bangalore, India, (IEEE, New York), pp.175-179, 1984.
[15] Qué es el/la. (s.f.). Obtenido de https://queesela.net/polarizacion/ [16] Ekert, A. K. (5 de Agosto de 1991). Quantum Cryptography Based on Bell's Theorem.
Physical review letters, 67(6).