+ All Categories
Home > Documents > Código TFG: OPT03 Luz no clásica, definición, tipos ...

Código TFG: OPT03 Luz no clásica, definición, tipos ...

Date post: 28-Nov-2021
Category:
Upload: others
View: 1 times
Download: 0 times
Share this document with a friend
22
UNIVERSIDAD COMPLUTENSE DE MADRID FACULTAD DE CIENCIAS FÍSICAS DEPARTAMENTO DE ÓPTICA TRABAJO DE FIN DE GRADO Código TFG: OPT03 Luz no clásica, definición, tipos, propiedades y aplicaciones Nonclassical light, definition, types, properties, and applications Supervisor/es: Alfredo Luis Aina Blanca Martín Muñoz Grado en Física Curso académico 2019-20 Convocatoria Septiembre
Transcript
Page 1: Código TFG: OPT03 Luz no clásica, definición, tipos ...

UNIVERSIDAD COMPLUTENSE DE MADRID

FACULTAD DE CIENCIAS FÍSICAS

DEPARTAMENTO DE ÓPTICA

TRABAJO DE FIN DE GRADO

Código TFG: OPT03

Luz no clásica, definición, tipos, propiedades y aplicaciones

Nonclassical light, definition, types, properties, and applications

Supervisor/es: Alfredo Luis Aina

Blanca Martín Muñoz

Grado en Física

Curso académico 2019-20

Convocatoria Septiembre

Page 2: Código TFG: OPT03 Luz no clásica, definición, tipos ...

Criptografía y los secretos de la luz cuántica

Resumen

La criptografía como la técnica de enviar mensajes con claves secretas de tal forma que lo

escrito solo sea inteligible para quien sepa descifrarlo, ha tenido desde sus inicios un único y

verdadero talón de Aquiles. Este no ha sido tan solo evitar que un intruso interceptase dicho

mensaje, sino el saber que ese intruso existía. A lo largo de la historia, su uso se ha ido

acercando más al ciudadano de a pie, dejando a un lado su exclusividad para el mundo militar

y gubernamental. Actualmente, la criptografía forma parte de nuestro día a día en acciones tan

cotidianas como una simple compra online, lo que ha supuesto la necesidad de encontrar el

algoritmo inquebrantable. Bien es cierto que el objetivo de encontrar el algoritmo perfecto fue

logrado en 1917 con el desarrollo del One-time Pad. Sin embargo, éste poseía un gran

inconveniente: el problema de la distribución segura de la clave. Tras varias soluciones

alternativas como la criptografía de clave pública, no fue hasta los años 80 que se encontró la

indiscutible solución a éste: la fusión de la criptografía y la cuántica con sus leyes irrefutables.

Con el desarrollo de protocolos como el BB84 y el E91 la criptografía cuántica pudo, por fin, ver

la luz: la criptografía cuántica, una criptografía completamente segura nació.

Abstract

It is widely known that, cryptographic, the art of code-making and decode-breaking, it is no

longer just a military nor governmental application but a daily action. Nowadays, cryptographic

is part of our lives just with the simple action of buying online. Due to its increasing

application, the need to develop the perfect algorithm is of vital importance. It is not only

about preventing a third party to intercept de encrypt message, but also knowing the

existence of this one. This goal was achieved, at least in principle, in 1917 when the One-Time

pad was invented. Nevertheless, this protocol has in practice an important drawback: the key

distribution problem. After several attempts to overcome this difficulty, like the birth of public

key cryptographic, the indisputable solution was found during the 80s: the fusion between

cryptographic and the irrefutable quantum laws. The discovery of protocols such as BB84 or

E91 enlightens this science: the quantum cryptographic, an absolute secure cryptographic was

born.

Page 3: Código TFG: OPT03 Luz no clásica, definición, tipos ...

1

ÍNDICE

1. INTRODUCCIÓN 2

2. CRIPTOGRAFÍA CLÁSICA: FUNDAMENTOS Y PROTOCOLOS 3

2.1. ONE TIME PAD: EN BUSCA DEL PROTOCOLO INQUEBRANTABLE 3

2.2. CRIPTOGRAFÍA DE CLAVE PÚBLICA 6

3. CRIPTOGRAFÍA CUÁNTICA: FUNDAMENTOS Y PROTOCOLOS 8

3.1. POLARIZACIÓN 8

3.2. TEOREMA DE NO CLONACIÓN 10

3.3. EL PROTOCOLO BB84 11

3.4. LA PARADOJA EPR: ENTRELAZAMIENTO CUÁNTICO 15

3.5. TEOREMA DE BELL 16

3.6. PROTOCOLO E91 18

4. CONCLUSIÓN 19

5. REFERENCIAS 20

Page 4: Código TFG: OPT03 Luz no clásica, definición, tipos ...

2

1. INTRODUCCIÓN

El siglo XXI es conocido como el siglo de las nuevas tecnologías, pues raro es el día en que no

se anuncie un nuevo avance tecnológico. Internet, junto a los distintos aparatos electrónicos,

forman parte de nuestro día a día. Consecuentemente, el mundo informático y en general, el

procesado automático de la información ha ido creciendo y evolucionando progresivamente

durante estos últimos años. Una de las grandes revoluciones ha sido el descubrimiento de lo

que podría suponer la aplicación de la teoría cuántica en el mundo computacional. A pesar de

que esta fusión es relativamente reciente, la física cuántica, desde sus inicios, ha supuesto

grandes avances en distintas áreas del conocimiento.

Fue durante los primeros treinta años del siglo XX cuando se comenzó a desarrollar la física

cuántica. Físicos como Albert Einstein y Max Planck comenzaron, junto a otros grandes

científicos, una exhaustiva investigación con el fin de comprender fenómenos que hasta la

fecha eran inexplicables. Este área estudia el mundo microscópico (átomos, moléculas,

partículas elementales...) el cual difiere drásticamente del macroscópico descrito por la física

clásica. Frente al determinismo característico de la teoría clásica, la teoría cuántica destaca

principalmente por una aleatoriedad de naturaleza desconocida en el mundo clásico que nos

obliga a reformular nuestra capacidad de conocer la realidad.

Todas estas peculiaridades cuánticas tan sorprendentes, y a su vez, tan distintas al mundo

visual que conocemos, no fueron puestas en práctica hasta algunos años más tarde,

obteniéndose resultados hasta el momento inalcanzables con la física clásica. A mediados del

siglo XX comenzaron a aparecer los primeros aparatos que hacían uso del nuevo conocimiento,

teniendo a día de hoy, por ejemplo, placas solares que aplican el denominado efecto

fotoeléctrico o microscopios de efecto túnel para formar imágenes 3D de átomos[1]. Sin

embargo, como se ha mencionado, no ha sido hasta finales del siglo pasado cuando se ha

descubierto el impacto de la cuántica en el campo de la información y la informática.

Ordenadores con una mayor capacidad de cómputo junto a la capacidad de obtener medidas

más precisas son ya una realidad. No obstante, los conocidos ordenadores cuánticos son tan

solo uno de los numerosos avances que ha supuesto esta fusión. Otra área destacable ha sido

el desarrollo de nuevas tecnologías de generación, transmisión y procesamiento de la

información como la encriptación cuántica.

¿Qué niño no ha jugado a enviar mensajes secretos con simples codificaciones privadas del

alfabeto? Es sabido que el campo de encriptación comenzó muchos años atrás, pero ya desde

sus inicios vivía una lucha interminable por la búsqueda de un método de encriptación que

fuera absolutamente seguro, el cual no pudiera ser copiado. Este objetivo se logró

parcialmente en 1917 cuando Gilbert Verman desarrolló el conocido protocolo One-Time-Pad

(OTP). Este algoritmo de encriptación basa su seguridad en que la clave secreta utilizada es tan

larga como el mensaje en sí mismo y además, es empleada tan solo una vez (de ahí su

nombre). Sin embargo, como se ha nombrado, el objetivo fue conseguido tan solo

parcialmente, pues en los múltiples intentos de alcanzar el perfecto algoritmo, incluido en el

OTP, la clave de la cuestión siempre era la misma: ¿Cómo comparte el emisor el código secreto

de forma segura con el receptor, el cual puede estar a miles de kilómetros de distancia? Esto

no tiene respuesta en la física clásica, pues no hay forma de comprobar si el canal clásico

Page 5: Código TFG: OPT03 Luz no clásica, definición, tipos ...

3

utilizado para enviar la clave está siendo espiado o no. La razón fundamental por la que no

puede ser evaluada la seguridad del canal es, básicamente, porque en física clásica la

información puede ser duplicada. De esta manera, tanto el emisor como el receptor son

incapaces de saber si la clave ha sido copiada por un tercero. El hándicap del campo de estudio

es claro: el problema de distribución de la clave. La encriptación cuántica o también conocida

como quantum key distribution (QKD), pues alude al problema expuesto, ha supuesto la

irrefutable solución a este. A diferencia de la encriptación clásica, que fundamenta la

seguridad de sus protocolos en dificultar en la práctica la posibilidad teórica de inferir la clave,

esta nueva rama se apoya en la solidez de las propias leyes de la mecánica cuántica. El hecho

cuántico según el cual medir un sistema lo perturba, supone una de las bases fundamentales

de esta especialidad. De este modo, espiar información cuántica implica una alteración

inevitable que alerta a los usuarios autorizados de la presencia de otro. Además, los distintos

protocolos cuánticos recogen otras peculiaridades de esta ciencia como el entrelazamiento

cuántico o el teorema de no clonación. Una vez establecida la clave mediante QKD, esta puede

ser utilizada en técnicas de encriptación clásica como el ya mencionado One-Time-Pad,

permitiendo a los usuarios comunicarse con total privacidad.

El objetivo del presente trabajo es, por tanto, presentar al lector una pequeña guía de las

bases y principios que fundamentan la encriptación cuántica junto a la explicación comparativa

de los dos protocolos E91 y BB84. Asimismo, a lo largo de todo el trabajo se evalúa la

criptografía clásica frente a la cuántica, llegando a la conclusión de los innegables beneficios

que esta última presenta.

2. CRIPTOGRAFÍA CLÁSICA: FUNDAMENTOS Y PROTOCOLOS

Se define criptografía como la técnica de escribir con clave secreta, de tal forma que lo

encriptado sea inteligible tan solo para quien sepa descifrarlo. El objetivo primordial de esta

ciencia es evitar la intrusión de terceros en la comunicación entre emisor y receptor, a los que

suele referirse como Alice y Bob, haciendo la transmisión del mensaje completamente segura

frente a posibles espías, referidos como Eve del inglés “eavesdropper”. De forma general,

cuando se habla de criptografía existen dos pasos principales: codificar y descodificar.

Normalmente, el emisor codifica su mensaje creando un mensaje encriptado el cual es enviado

al receptor, quien debe descodificarlo obteniendo así, el mensaje original. Este proceso, es

decir, la forma sistemática de codificar y descodificar mensajes es lo que se conoce como

protocolo criptográfico [2]

2.1. ONE TIME PAD: EN BUSCA DEL PROTOCOLO INQUEBRANTABLE

Los orígenes de la criptografía se remontan a las primeras civilizaciones en Mesopotamia,

Egipto, India y China. Se sabe que uno de los primeros métodos utilizados fue la clave César [3]

cuyo nombre alude a los tiempos de Julio César, pues, según se cree, éste lo utilizaba para

comunicarse con sus generales. Se trataba de escribir el alfabeto desde la A a la Z en forma

circular y trasladar cada letra del mensaje a cifrar un mismo número de posiciones, por

ejemplo, 3, en el alfabeto. De esta manera, el mensaje ATAQUE, se escribía como DWDTXH,

Page 6: Código TFG: OPT03 Luz no clásica, definición, tipos ...

4

pasando a ser “incomprensible”1 para cualquiera que lo interceptase. Al final, el receptor tan

solo tendría que descodificarlo moviendo cada letra del mensaje encriptado 3 posiciones en el

alfabeto en la dirección opuesta. A lo largo de la historia, debido a su uso militar y

gubernamental, se han ido desarrollando distintos cifrados con el fin de abarcar los objetivos

principales de esta ciencia: la privacidad de la comunicación y la autenticidad de los

mensajes.[4] Pero es debido al actual auge de las nuevas tecnologías como internet o negocios

electrónicos incluyendo sus transacciones telemáticas (banking, credit data o firma

electrónica) lo que ha supuesto la necesidad de la criptografía en nuestro día a día provocando

así, que esta ciencia se encuentre en continuo desarrollo.

Tras varios intentos fallidos por encontrar el algoritmo “perfecto”, Gilbert Vernam ideó en

1917 lo que se conoce hasta la fecha como el código inquebrantable, el llamado “One-Time-

Pad” (OTP)[5] o en español “libreta de un solo uso”. La seguridad de este método se

fundamenta en dos puntos esenciales: la clave es de la misma longitud que el mensaje en sí

mismo y esta se utiliza tan solo una vez. En este protocolo, Alice y Bob poseen una clave

secreta conjunta que han compartido con anterioridad. Una vez ambos conozcan esta clave, se

procede de la siguiente manera:

i. Primeramente, Alice convierte el mensaje que desea transmitir (ℳ), al que suele

referirse como “plain text”, a una forma binaria que se trata de una sucesión de 0s

y 1s mediante un método que es públicamente conocido2

ii. Seguidamente, haciendo uso de la clave secreta (key o 𝒦) que, como se ha

mencionado, es de la misma longitud que el mensaje, el emisor convierte el “plain

text” (ℳ) en un mensaje encriptado (“cipher text” o 𝒳). Para ello, combina cada

bit del mensaje con cada respectivo bit de la clave usando un sistema binario

conocido como suma en base 23

Plain text 𝓜 01001000 01101001

Key 𝓚 11010101 10010101

Cipher text 𝓧 10011101 11111100

iii. Finalmente, Alice manda el mensaje encriptado a Bob por un canal clásico, el cual

puede ser interceptado. Sin embargo, por mucho que un tercero posea una copia

del mensaje encriptado, sin el conocimiento de la clave, el mensaje cifrado es

completamente aleatorio y no da ninguna información sobre el “plain text”. En

1 Es “incomprensible” porque, ciertamente, la clave César no es un método seguro. Es decir, un espía

podría intentar las 26 combinaciones posibles de la clave para recuperar el mensaje original. Son 26 combinaciones porque el alfabeto contiene 26 letras sin contar la “ñ”. 2 Una forma posible de hacer esto es utilizando el código ASCII creado en 1963. Consiste en la asignación

a cada letra del alfabeto latino una secuencia de 8 bits. [2]

3 Suma en base 2: 0⨁0 = 0, 1 ⨁ 1 = 0, 1⨁0 = 1, 0 ⨁ 1 = 1

Plain text H i

𝓜 01001000 01101001

Figura 1. Primer paso del one-time pad. Alice convierte el mensaje “Hi” a una forma binaria [2]

Figura 2. Segundo paso de one-time pad. Se encripta el mensaje [2]

Page 7: Código TFG: OPT03 Luz no clásica, definición, tipos ...

5

cambio, Bob, quien comparte la misma clave con Alice, puede descodificar lo

recibido. Para ello, tan solo necesita hacer otra suma en base 2 de cada bit del

mensaje cifrado con cada respectivo bit de la clave recuperando así el mensaje

original (ℳ). [6]

Cipher text 𝓧 10011101 11111100

Key 𝓚 11010101 10010101

𝓜 = 𝓧⨁ 𝓚 01001000 01101001

Plain text H i

Aunque es cierto que este método es completamente seguro, y así lo afirmo y verificó Claude

Shannon[7] en 1949 mediante la teoría de la información, es importante destacar que las

condiciones en las que este protocolo se basa deben ser seguidas con minuciosa cautela. La

clave, en la cual reside toda la seguridad del algoritmo, debe ser utilizada tan solo una vez por

cada mensaje enviado y ésta, además de ser de la misma longitud que el mensaje, tiene que

ser completamente aleatoria. Un claro ejemplo de la importancia de utilizar distintas claves es

lo que se conoce como Proyecto Venona[8],[9],[2]. Durante la Segunda Guerra Mundial y

principios de la Guerra Fría, la Unión Soviética hacía uso de este método para codificar sus

mensajes secretos. Desafortunadamente, cometieron el error de reutilizar sus claves pensando

que sus enemigos no se darían cuenta. Sin embargo, tras reunir un número muy elevado de

mensajes, los matemáticos de Estados Unidos y Reino Unido fueron capaces de descubrir la

clave y espiar así los mensajes mandados desde la Unión Soviética.

Asimismo, otra de las grandes dificultades que el OTP presenta es alcanzar la verdadera

aleatoriedad para las claves utilizadas, es decir, que estas no sigan un patrón o ciclo. Las claves

requeridas en el OTP, caracterizadas por su gran longitud, obstaculizan el objetivo de que un

generador de números pseudo-aleatorios propio de un ordenador consiga una completa

aleatoriedad4. Debido a esto, actualmente otros protocolos como el AES5 con claves de menor

longitud son los utilizados. Esto reduce la dificultad de encontrar claves aleatorias, pero en

contraposición, los métodos no son tan seguros como el OTP. No obstante, mediante el uso de

un generador cuántico de números aleatorios se podría erradicar este problema. Mientras que

la física clásica es determinista, es decir, las leyes físicas pueden reproducir y predecir la

evolución de un fenómeno, la cuántica es fundamentalmente aleatoria. Un claro ejemplo de

ello es la reflexión y transmisión de un fotón en un espejo semitransparente. En este caso,

existe la misma probabilidad de que el fotón sea transmitido o reflejado por el espejo. Lo

genuinamente cuántico es que un observador no podrá predecir nunca si el próximo fotón se

reflejará o será transmitido, pues existe una aleatoriedad intrínseca. Explotando este

fenómeno se puede llegar a desarrollar un verdadero generador de números aleatorios. [10]

4 La mayoría de ordenadores convencionales no poseen un verdadero generador de números aleatorios,

sino un generador de números pseudo-aleatorios. Se basa en un algoritmo que produce una secuencia de números sin orden aparente. Sin embargo, la misma secuencia se va repitiendo según un valor inicial denominado semilla que utiliza el algoritmo. 5 El AES (Advanced Encryption Standard) es de un esquema de cifrado por bloques adoptado por el

gobierno estadounidense en 2001. Las claves tienen como mínimo una longitud de 128 bits, pero también se utilizan de 192 y 256 bits

[3].

Figura 3. Tercer paso del OTP. El receptor desencripta el mensaje

Page 8: Código TFG: OPT03 Luz no clásica, definición, tipos ...

6

A pesar de que ambas condiciones pueden ser cubiertas y el OTP parezca inquebrantable, este

tiene otro gran y verdadero inconveniente. Antes de que Alice comience la codificación del

mensaje, como se ha mencionado, el emisor y el receptor han debido de compartir una clave

secreta. Pero, ¿cómo realizan esto a distancia asegurándose de que no existe espionaje? La

respuesta es simple: no pueden. Es cierto que si Alice y Bob son capaces de verse físicamente

con antelación, e intercambiar la clave, este problema no existe, pero, en general, este nunca

es el caso. Ahora bien, si este encuentro es inviable, existen dos posibilidades. La primera sería

trasmitir esta clave, una secuencia de ceros y unos, por un canal clásico. Esto no supondría

ninguna solución pues en la física clásica no existe ningún principio que prevenga de que un

espía pueda copiar el código. La segunda sería utilizar mensajeros de confianza, lo que se

conoce como “seguridad física”. Lamentablemente, esta opción también es poco práctica

como nos ha demostrado la historia del espionaje.

2.2. CRIPTOGRAFÍA DE CLAVE PÚBLICA

Aunque se disponga de una buena clave, el hándicap del OTP es claro: el problema de su

distribución segura. Como solución a este problema, surgió durante mediados de los años 70

lo que se conoce como criptografía de clave pública o criptografía asimétrica (public key

distribution). De esta manera, la criptografía se dividió en dos grandes ramas: la criptografía

convencional o también conocida como criptografía de clave secreta o criptografía simétrica (a

la que pertenecen protocolos como el OTP, el DES 6 o el AES) y la criptografía de clave pública o

asimétrica, la cual no necesita que el emisor y el receptor compartan una clave secreta de

antemano.

La criptografía asimétrica o de clave pública se basa en que Bob, es decir, el receptor, posee

dos claves diferentes: una clave pública y otra privada. Mientras que la clave pública es

transmitida por Bob a través de un canal clásico de tal forma que cualquier persona pueda

obtener una copia de ella, la clave privada tan solo la tiene Bob. Para explicar esta nueva

vertiente, se suele utilizar la siguiente metáfora: Bob posee una caja que tiene un candado

cuya llave solo posee él. Esta caja es enviada abierta por Bob a Alice (clave pública a la cual

puede acceder cualquier posible emisor). Una vez recibida la caja, Alice guarda en ella el

mensaje que quiere hacer llegar a Bob, la cierra con su candado (encripta el mensaje utilizando

la clave pública) y se la envía a Bob. De esta manera, ninguna persona, incluida Alice, puede

6 El algoritmo DES (Data Encryption Standard) fue utilizado por la administración federal de EEUU a

partir de 1976. Sus claves son de tan solo 56 bits, por lo que son menos seguras (se pueden descifrar en pocas horas). Debido a esto, fue reemplazado por el algoritmo AES.

[3]

Figura 4. Esquema de un Generador cuántico de números aleatorios [10]

Page 9: Código TFG: OPT03 Luz no clásica, definición, tipos ...

7

acceder al mensaje a no ser que tenga la llave del candado de la caja (clave privada). Por ello,

Alice puede enviar su mensaje encriptado a Bob con total seguridad mediante un canal clásico,

el cual puede ser espiado, pues nadie más posee la clave secreta que descodifica este

criptograma.

Matemáticamente hablando, la caja con candado en la que se apoya el protocolo de clave

pública es lo que se conoce como “one-way functions”[10], ya que son fáciles de computar, pero

difíciles de revertir. En el caso del RSA7, uno de los protocolos más famosos de los

pertenecientes a esta nueva rama, su one-way function se basa en la dificultad que le supone a

un ordenador convencional factorizar un número grande.

Sin embargo, a pesar de que los distintos protocolos de la criptografía asimétrica son mucho

más prácticos (de ahí su gran uso en la actualidad) que los pertenecientes a la criptografía

simétrica, especialmente el OTP, cabe destacar que su seguridad no es tan alta como la de este

último. La solidez del RSA, como se ha mencionado, recae en el arduo trabajo que supone

buscar dos factores primos que formen un número entero largo. No se ha descubierto hasta la

fecha ningún algoritmo eficiente que pueda realizar esta tarea en un ordenador convencional8.

No obstante, no existe ninguna prueba de que este algoritmo no pueda llegar a formularse

poniendo en peligro toda la criptografía de clave pública de la noche a la mañana.

Podemos resumir diciendo que la popularidad de la criptografía asimétrica se basa en su

facilidad a la hora de ponerla en práctica (al contrario que el OTP) y en la dificultad de romper

el código. Empero, a pesar de que en la criptografía clásica no se haya encontrado un

protocolo que consiga quebrantar la criptográfica de clave pública, en 1994 Peter W. Shor[10]

desarrolló lo que podría suponer el fin de esta. Este profesor de matemáticas aplicadas del

MIT, propuso un algoritmo capaz de factorizar enteros suponiendo una gran amenaza para el

RSA. Dicho de otra manera, supondría la destrucción de cualquier protocolo de criptografía

asimétrica conocido hasta el momento. El único inconveniente de este descubrimiento es que,

para llevarlo a cabo, se necesita un ordenador cuántico con la capacidad de un ordenador

actual. Es cierto que aunque la posibilidad de la existencia un ordenador cuántico con las

capacidades necesarias9 para hacer funcionar este algoritmo parezca lejana, el rápido avance

de la tecnología nos lo cuestiona. Por ello, debido a la amenaza que supone este hallazgo para

todo el sistema criptográfico actual, se han ido desarrollando nuevas áreas en busca de la

solución a esta. Si la principal amenaza de la criptografía es de naturaleza cuántica, es lógico

platearse que la mejor defensa venga del mismo nivel de realidad, es decir, una criptografía

genuinamente cuántica desde el principio.

7 El sistema RSA, titulado así por sus inventores Ron Rivert, Adi Shamir y Leonard Adleman, fue

inventado en 1977 [11]

8 Cabe mencionar que, en 1977, se propuso un reto para poner a prueba el RSA. Se trataba de intentar

descodificar un mensaje encriptado donde se había hecho uso del RSA. Para ello, había que factorizar un número de 129 dígitos en dos números primos de 64 y 65 dígitos. Los autores pensaron que se tardaría millones de años, pero sin embargo, tan solo hicieron falta unos años donde los ordenadores mejoraron y, tras ocho meses de trabajo, en 1994, un grupo de científicos lo resolvieron. Esta es una de las razones por las que cabe pensar que puede llegar a encontrarse un algoritmo clásico capaz de poner a prueba la criptografía de clave pública.

[12]

9 Es cierto que el 8 de enero de 2019 IBM Q System One presentó la primera computadora cuántica que

combina tanto la computación cuántica como "tradicional" para ofrecer un sistema de 20 qubits para uso comercial, de negocios e investigación. Sin embargo, su capacidad sigue siendo limitada todavía.

[13]

Page 10: Código TFG: OPT03 Luz no clásica, definición, tipos ...

8

3. CRIPTOGRAFÍA CUÁNTICA: FUNDAMENTOS Y PROTOCOLOS

No es sorprendente que la solución a la amenaza de lo que supondría la existencia de los

ordenadores cuánticos se haya encontrado en el mismo campo: la cuántica. Sin embargo, sí

que es destacable que una década antes de descubrir que los ordenadores cuánticos

supondrían un peligro para la criptografía actual, se descubriese una solución para este

ataque: la criptografía cuántica. La criptografía cuántica nació en los años 70 con un artículo

nunca publicado de Stephen Wiesner. No obstante, no fue hasta 1984, cuando esta empezó a

recibir reconocimiento. Esto fue gracias a Bennet y Brassard[14], [9], quienes adoptaron, durante

los años 80, la idea de Stephen y la aplicaron en la búsqueda de una solución para el problema

de distribución de clave.

Esta nueva rama, también definida como quantum key distribution basa su seguridad en las

propias leyes de la cuántica. En contraposición a los distintos algoritmos convencionales, los

cuales se basan en suposiciones matemáticas vinculadas a la capacidad de computo de los

ordenadores utilizados, los distintos protocolos cuánticos utilizan principios cuánticos como la

aleatoriedad irreducible cuántica y el teorema de no clonación que aseguran su solidez. En los

distintos algoritmos, Alice y Bob se transmiten la clave mediante objetos cuánticos, y tras

comprobar que esta no ha sido interceptada poniendo en práctica principios cuánticos, la usan

para enviarse el mensaje encriptado mediante el inquebrantable one-time pad, es decir,

utilizando la criptografía clásica

3.1. POLARIZACIÓN

En las redes de telecomunicación, la luz es utilizada habitualmente para el intercambio de

información. Desde la perspectiva de la física clásica, la luz consiste usualmente en un campo

electromagnético que puede oscilar en cualquier dirección perpendicularmente a su dirección

de propagación. Por tanto, en la mayoría de los casos, cuando se habla de la polarización de la

luz, uno se refiere a la trayectoria que describe el campo eléctrico en el plano perpendicular al

vector de propagación, es decir, la dirección en la que el campo eléctrico oscila. Una forma

sencilla y conveniente de convertir polarización en intensidad, que es la propiedad de la luz

más fácilmente medible, es mediante el uso de polarizadores lineales. Se trata de unos

dispositivos que tienen un eje de polarización característico por el cual actúan como filtros,

pues solo pasa a través de ellos la luz que vibre en la dirección del eje del polarizador. Cabe

destacar que, para los propósitos de este trabajo, nos basta considerar polarización lineal, en

la que el campo eléctrico vibra en una dirección determinada del plano transversal a la

dirección de propagación. La polarización lineal, al tratarse de una dirección, es habitualmente

expresada clásicamente como un vector real. Para ello se hace uso de unas “bases”, las cuales

suelen referirse como “horizontal y vertical” o en otras palabras, “eje x” y “eje y”, que deben

ser ortogonales entre sí. Esto es:

�̂�𝛼 = cos𝛼 �̂�𝑥 + sen𝛼 �̂�𝑦 = cos𝛼 �̂�𝐻 + sen𝛼 �̂�𝑉 = cos𝛼 �̂�∥ + sen𝛼 �̂�⊥ , (1)

siendo α el ángulo que forma la polarización del haz con respecto al eje x, eje horizontal H,

versus vertical V, o componente paralela ∥ versus perpendicular⊥.

Page 11: Código TFG: OPT03 Luz no clásica, definición, tipos ...

9

De esta manera, cuando un haz de luz atraviesa un polarizador, la fracción de luz que se verá

tras él será aquella que vibre con la misma dirección de polarización que su eje.

Matemáticamente, la intensidad (esto es, proporción de luz) que es transmitida por el

polarizador, es decir, que lo atraviesa, y la cantidad de luz que el polarizador absorbe se puede

expresar mediante la ley de Malus:

𝐼𝑇 = 𝐼0cos2𝛼 𝐼𝐴 = 𝐼0sin2𝛼 . (2)

Esto se puede entender mejor visualmente mediante la figura 5 y 6.

Por otro lado, desde un punto de vista cuántico, la luz está formada por partículas indivisibles

sin masa que se conocen como “fotones”. Desde esta perspectiva, cuando un haz de luz está

polarizado según la dirección �̂�𝛼 = cos𝛼 �̂�𝑥 + sen𝛼 �̂�𝑦, se puede decir que cada fotón que

forma dicho haz de luz está polarizado de esa manera. En el campo de la física cuántica se hace

uso de lo que se conoce como notación Dirac, por lo que propiamente se dice que cada fotón

está polarizado según:

|𝛼⟩ = cos𝛼|𝐻⟩ + sin𝛼|𝑉⟩ (3)

Tanto |𝐻⟩ como |𝑉⟩ se tratan, desde un punto de vista matemático, de vectores que forman

una base como los utilizados al expresar la polarización del haz de luz clásicamente. Es

interesante notar que no parece haber grandes cambios al pasar del dominio clásico al

cuántico. Ahora bien, aunque el fotón posea una polarización cuya expresión cuántica se

asemeje formalmente a la óptica clásica, hay un par de aspectos cruciales que distinguen la

polarización clásica de la cuántica. Lo particularmente cuántico es que cuando el fotón se

enfrente al polarizador no se dividirá en dos fragmentos de acuerdo con la ley de Malus, sino

que al ser una partícula indivisible todo él o atravesará el polarizador o será absorbido. Esto

quiere decir que cuando el fotón sea medido en la base {|𝐻⟩, |𝑉⟩} , es decir, enfrentado a un

polarizador con su eje horizontal o vertical, “colapsará” a uno de los dos estados. Puede o bien

colapsar en una polarización horizontal (|𝐻⟩), o colapsar en una polarización vertical (|𝑉⟩),

siendo, consecuentemente, absorbido o transmitido por el polarizador, sin saber de antemano

Figura 5. La luz que va a atravesar el polarizador esta polarizada formando un ángulo de 45º (flecha amarilla). Cuando lo atraviesa, según el eje de polarización de este (puede ser un polarizador lineal horizontal o vertical) tan solo se transmite el 50% de luz incidente. Esto es, según la ley de Malus

𝑰𝑻 = 𝑰𝟎𝒄𝒐𝒔𝟐𝟒𝟓º = 𝑰𝟎 ·

𝟏

𝟐 [10]

Figura 6. Luz no polarizada (no tiene una dirección de polarización preferente) atraviesa un polarizador lineal vertical, quedando tras él tan solo luz linealmente polarizada verticalmente. Al llegar al segundo polarizador, toda la luz es absorbida pues es un polarizador lineal horizontal.

[15]

Page 12: Código TFG: OPT03 Luz no clásica, definición, tipos ...

10

cuál de los dos casos se dará. Asimismo, “cos2𝛼” o “sin2𝛼”10 no representa la fracción de luz

que es absorbida o transmitida por el polarizador, sino la probabilidad de que el fotón colapse

en el estado |𝐻⟩ y sea transmitido, o que colapse en |𝑉⟩ y sea absorbido o viceversa, según el

eje del polarizador. [2]

El hecho de no poder saber de antemano cuál de los dos casos ocurrirá supone una de las

grandes diferencias entre la física clásica y la física cuántica. Mientras que la física clásica es

determinista, la física cuántica se caracteriza por su aleatoriedad intrínseca. Cuando un haz de

luz está polarizado según �̂�𝛼 puede decirse que todos los fotones que lo forman están

polarizados según |𝛼⟩. De este gran número de fotones puede predecirse su comportamiento

estadístico, lo que explica que un observador vea como cierta proporción de luz atraviesa un

polarizador, pues cierta cantidad de fotones han atravesado el polarizador, como se esperaba.

Sin embargo, es imposible determinar el comportamiento de un solo fotón. Si el fotón será

transmitido o no por el polarizador es completamente aleatorio. No existe una ley que prediga

el comportamiento de un fotón con exactitud.

3.2. TEOREMA DE NO CLONACIÓN

El teorema de no clonación, por el cual, como ya se ha mencionado, es seguro intercambiar

información con objetos cuánticos, fue postulado por Wootters, Zurek y Dieks en 1982. El

teorema enuncia que cualquier estado cuántico arbitrario no puede ser duplicado

perfectamente. Esto es, dado un estado arbitrario de un fotón |𝜓⟩ , no existe ninguna máquina

capaz de copiar este fotón en otro fotón que se haya preparado previamente en cierto estado

fijo |𝑅⟩ independiente de |𝜓⟩, el cual actúa como pieza en blanco, es decir:

|𝜓⟩⨂|𝑅⟩ → |𝜓⟩⨂|𝜓⟩ No existe (4)

Este teorema está fuertemente ligado a otro postulado de la mecánica cuántica el cual expone

que si haciendo la medida de un sistema cuántico se obtiene información del estado,

entonces, en general, el sistema cuántico es perturbado. La única excepción que existe a este

principio es que se sepa de antemano que los posibles estados del sistema original son

ortogonales entre sí. Es decir, si se sabe con anterioridad que la polarización de un fotón

enviado solo puede ser linealmente vertical o linealmente horizontal, al colocar un divisor de

haz de polarización y dos detectores, se puede conocer la polarización de este fotón. Si el

fotón es reflejado, y su detector suena, se sabe que está verticalmente polarizado, de lo

contrario, el fotón está horizontalmente polarizado. Este es el único caso en donde una copia

perfecta de la polarización del fotón puede llevarse a cabo. Pues una vez sabido el estado de

polarización del fotón, se pueden hacer miles de copias de este.

10

En física cuántica, por su propia naturaleza, tiene sentido estudiar la probabilidad de que el fotón al llegar al filtro, al ser indivisible, pase o no el polarizador. Para el estudio de la probabilidad se hace uso de la regla de Born para estados puros: P(encontrar 𝜓1dado 𝜓2) = |⟨𝜓1|𝜓2⟩|2. De esta manera, P(pase por un polarizador horizontal dado α)=P(H|α)= |⟨H|α⟩|2=cos2𝛼 y P(V|α)= |⟨V|α⟩|2=sin2𝛼. Además, técnicamente, tanto como la fracción de luz calculada clásicamente, como la probabilidad de que el fotón sea transmitido o absorbido dependen de la diferencia de ángulos entre el ángulo que forma el polarizador (β) y el ángulo del eje de polarización del fotón incidente (α). Es decir, 𝑃(𝑇) =cos2(𝛼 − 𝛽) y 𝑃(𝐴) = sin2(𝛼 − 𝛽). Si se ha despreciado β es por simplificación al utilizar las bases {|𝐻⟩, |𝑉⟩}

Page 13: Código TFG: OPT03 Luz no clásica, definición, tipos ...

11

Para demostrar el teorema de no clonación, se asume que la transformación anterior es válida

para las bases {|𝐻⟩, |𝑉⟩} , es decir, sí existe:

|𝐻⟩⨂|𝑅⟩ → |𝐻⟩⨂|𝐻⟩, (5)

|𝑉⟩⨂|𝑅⟩ → |𝑉⟩⨂|𝑉⟩ . (6)

Sin embargo, a la hora de transformar el estado |↗⟩ =1

√2(|𝐻⟩ + |𝑉⟩), es decir, un estado

arbitrario, esta operación no funciona:

|↗⟩⨂|𝑅⟩ → |↗⟩⨂|↗⟩ No existe (7)

Por un lado, el lado izquierdo de la ecuación anterior (7), sabiendo que las trasformaciones

cuánticas han de ser lineales, resultaría como:

|↗⟩⨂|𝑅⟩ =

1

√2(|𝐻⟩ + |𝑉⟩)⨂|𝑅⟩ =

1

√2(|𝐻⟩⨂|𝑅⟩ + |𝑉⟩⨂|𝑅⟩). (8)

Aplicando (5) y (6), se transforma (8) como:

|↗⟩⨂|𝑅⟩ →

1

√2(|𝐻⟩⨂|𝐻⟩ + |𝑉⟩⨂|𝑉⟩) (9)

mientras que el lado derecho de (7) quedaría como:

|↗⟩⨂|↗⟩ = [1

√2(|𝐻⟩ + |𝑉⟩)] ⨂ [

1

√2(|𝐻⟩ + |𝑉⟩)]

=1

2(|𝐻⟩⨂|𝐻⟩ + |𝐻⟩⨂|𝑉⟩ + |𝑉⟩⨂|𝐻⟩ + |𝑉⟩⨂|𝑉⟩) .

(10)

Como se observa, ambos lados de la ecuación (7) no coinciden. Esto es, (9) y (10) no han

resultado ser lo mismo, demostrando así que un estado arbitrario cuántico no puede ser

duplicado perfectamente. [2]

Por tanto, como se verá a continuación en la explicación del protocolo BB84, con el uso de

objetos cuánticos como los fotones, los cuales no son divisibles, y aplicando el teorema de no

clonación, la comunicación entre el emisor y el receptor es complemente segura. Un intruso

que pretenda espiar la comunicación nunca será capaz de tomar parte de un fotón, dejando la

otra parte que continúe su curso; este es indivisible, y, por ello, lo único que puede hacer es

medirlo, perturbando así el estado original de este. Asimismo, vinculado con lo anterior, el

teorema de no clonación expone como, al utilizar 4 posibles estados linealmente dependientes

(horizontal, vertical, 45o y 135o) y no 2 conocidos con anterioridad ortogonales entre sí, es

imposible duplicar el fotón, haciendo la intervención de Eve completamente perceptible para

Alice y Bob. [9]

3.3. EL PROTOCOLO BB84

El protocolo BB84[14], titulado así por sus inventores Bennet y Brassard y el año en el que éste

fue publicado 1984, supuso el comienzo de la nueva rama de la criptografía, la criptografía

cuántica o quantum key distribution. La forma de aplicar la cuántica tanto en este, como en

Page 14: Código TFG: OPT03 Luz no clásica, definición, tipos ...

12

otros protocolos de la rama, se basa en codificar los bits digitales en objetos cuánticos y aplicar

leyes cuánticas. En muchísimos ámbitos se hace uso de la luz para codificar la información, y

normalmente, se utilizan pulsos de luz que contienen millones de fotones; sin embargo, en la

criptografía cuántica es necesario que cada pulso encierre un solo fotón por las razones

comentadas. De esta manera, cada bit de información se codifica o imprime en un pulso de luz

que se envía a través de una fibra óptica (lo que se conoce como canal cuántico) al receptor,

donde se registra y se transforma de nuevo en una señal electrónica (un bit).

Los pasos a seguir son los siguientes:

i) Comunicación cuántica: Alice envía Bob un gran número de fotones polarizados

linealmente. Para ello, el emisor hace uso de dos bases:

(1) Base + , {|𝐻⟩, |𝑉⟩} , siendo:

𝑏𝑖𝑡 0 → |𝐻⟩ (11)

𝑏𝑖𝑡 1 → |𝑉⟩ (12)

(2) Base X, {|↗⟩, |↖⟩} , formando un ángulo de 45o y 135o respectivamente:

𝑏𝑖𝑡 0 → |↗⟩ 𝑠𝑖𝑒𝑛𝑑𝑜 |↗⟩ =

1

√2(|𝐻⟩ + |𝑉⟩) (13)

𝑏𝑖𝑡 1 → |↖⟩ 𝑠𝑖𝑒𝑛𝑑𝑜 |↘⟩ =

1

√2(|𝐻⟩ − |𝑉⟩) (14)

Los fotones emitidos son preparados por Alice con una de las 4 polarizaciones

expuestas de forma aleatoria11 y enviados a Bob. De esta forma, el teorema de no

clonación puede ser aplicado; ya que no se trata tan solo de 2 posibles estados de

polarización ortogonales entre sí, sino de 4 linealmente dependientes.

Al recibir cada fotón, Bob elige de forma aleatoria, pues no sabe qué base ha

utilizado Alice, una de las dos bases + y X para medirlo. Para implementar la

medida en la base +, una opción sería utilizar un polarizador vertical, de tal forma

que, si por casualidad, el fotón está polarizado en esa base verticalmente (|𝑉⟩), el

fotón sería transmitido con total seguridad, obteniendo un bit 1; si por lo

contrario, se encuentra polarizado |𝐻⟩, el fotón sería absorbido, obteniendo Bob

un bit 0. Sin embargo, existe la posibilidad de que el fotón haya sido preparado en

la base X. En ese caso, la probabilidad de que el fotón sea absorbido (obteniendo

un bit 0) o transmitido (obteniendo un bit 1), tanto si este está polarizado según

|↗⟩ o según |↖⟩ es de, siguiendo la regla de Born:

11

Cabe mencionar la importancia de la aleatoriedad en este método. Esta aleatoriedad se refiere a que nadie, ni el propio emisor sepa por anticipado la base de polarización. En cuanto alguien posea esta información, ésta puede ser filtrada, y por tanto, clonarse los fotones. Asimismo, estos números deben ser completamente aleatorios y no proceder de un generador de números pseudo-aleatorios que produce la repetición de una misma secuencia de bits. Si se siguiese un patrón, Eve podría descubrirlo poniendo en juego la seguridad total del sistema.

Page 15: Código TFG: OPT03 Luz no clásica, definición, tipos ...

13

𝑃(𝐻| ↗) = 𝑃(𝐻| ↘) = 𝑃(𝑉| ↗) = 𝑃(𝑉| ↘) =1

2 . (15)

Por otro lado, para implementar la medida en la base X, una de las opciones sería

utilizar un polarizador cuyo eje forme 135o. En ese caso, si el fotón resultase estar

polarizado |↗⟩, sería absorbido con total certeza, obteniendo un bit 0, y sería

transmitido si su polarización fuese |↘⟩, obteniendo un bit 1. Al igual que

anteriormente, si el fotón está preparado según |𝐻⟩ o |𝑉⟩, la probabilidad de que

sea transmitido o absorbido es la misma, es decir, 1/2.

Por tanto, no existe correlación entre los bits de Alice y Bob cuando las bases

utilizadas difieren, es decir, en general la lista secuencial de bits de Alice y Bob no

concuerda.

ii) Reconciliación de bases

Una vez enviados y medidos todos los fotones, Alice y Bob publican por un canal

clásico, como el móvil o internet, qué base han elegido para cada uno de los

fotones intercambiados, sin declarar el resultado de la medida. Una vez hecho

esto, desechan aquellos fotones que no comparten la misma base, pues no están

correlacionados. Los fotones restantes, que serán aproximadamente la mitad, son

los que constituyen la raw key. Debido a que comparten base, estos bits deberían

ser idénticos si se desprecia las propias imperfecciones del sistema y la posible

alteración que pueda producir un tercero.

iii) Classical post-processing

Una vez obtenida la raw key, Alice y Bob comparan los resultados conseguidos de

una cierta cantidad de fotones en busca de errores y por tanto, de posibles

intrusos pues en realidad, los bits deberían ser iguales. Si el número de errores es

mínimo, aplican error correction para conseguir un mayor número de bits idénticos

y privacy amplification para hacer que la poca información que pueda tener el

espía sea despreciable. En cambio, si la cantidad de errores es abundante,

descartan toda la clave y vuelven a empezar.

Suponiendo que haya habido espionaje en el proceso de distribución de clave, ¿cómo se

podría detectar? Para empezar, el ataque habitual que puede realizar Eve sería el intercept-

resend. Consiste en interceptar los fotones, medirlos con una base elegida aleatoriamente, y

de acuerdo con su resultado, enviarle un nuevo fotón a Bob haciéndose pasar por Alice. Ahora

bien, una vez realizada la reconciliación de bases, Alice y Bob obtienen la raw key, que debería

ser una secuencia idéntica de bits. Si por algún casual Eve ha utilizado la misma base que Alice,

sus fotones estarán correlacionados y, por ello, el fotón enviado desde Eve a Bob será el

correcto, pasando inadvertida la interacción de Eve. Sin embargo, si la base de Alice y Eve no

coincide, el resultado obtenido por Eve será completamente aleatorio. Por ello, el fotón que

Eve envía estará en la base incorrecta, y, por tanto, el resultado de Bob vuelve a ser

completamente aleatorio. Puede que obtenga el mismo bit que Alice envió en un principio,

pero puede también que no. Debido a esto, se puede entender que la interacción de un

tercero en la comunicación suponga un gran número de errores en la parte de la clave que

Page 16: Código TFG: OPT03 Luz no clásica, definición, tipos ...

14

Alice y Bob comparte públicamente con el fin de encontrar errores. Un esquema de los

distintos casos posibles junto a su explicación está representado en la figura 7, a continuación.

Si se parte de que cada persona que pueda estar posiblemente involucrada en la

comunicación, es decir, Alice, Eve y Bob, tienen 4 posibles estados en los que medir la

polarización de los fotones, se puede predecir que existen, por tanto, 64 casos posibles (4·4·4).

Sin embargo, una vez realizada la “reconciliación de bases”, se puede suponer que los casos en

los que las bases concuerdan se reducen a la mitad, es decir, a 32. No obstante, por

estadística, se puede asumir que de esos 32 casos 16 se han hecho con la base + y otros 16 con

la base X. Esos primeros 16 casos posibles (los de base +) son los estudiados en la Figura 7. No

obstante, cabe mencionar, que aunque no se estudien los otros 16 casos de base X, la

situación es análoga.

Caso nº Alice envía Eve mide 𝑷𝑬𝒗𝒆 𝒎𝒊𝒅𝒂 𝒆𝒔𝒐 Bob 𝑷𝑩𝒐𝒃 𝑷𝒇𝒊𝒏𝒂𝒍

1 + → |𝐻⟩ + → |𝐻⟩ 1 + → |𝐻⟩ 1 1 2 + → |𝐻⟩ + → |𝐻⟩ 1 + → |𝑉⟩ 0 0 3 + → |𝐻⟩ + → |𝑉⟩ 0 + → |𝐻⟩ 1 0 4 + → |𝐻⟩ + → |𝑉⟩ 0 + → |𝑉⟩ 0 0 5 + → |𝐻⟩ X → |↗⟩ 1/2 + → |𝐻⟩ 1/2 1/4 6 + → |𝐻⟩ X → |↗⟩ 1/2 + → |𝑉⟩ 1/2 1/4 7 + → |𝐻⟩ X → |↘⟩ 1/2 + → |𝐻⟩ 1/2 1/4 8 + → |𝐻⟩ X → |↘⟩ 1/2 + → |𝑉⟩ 1/2 1/4

9 + → |𝑉⟩ + → |𝐻⟩ 0 + → |𝐻⟩ 0 0 10 + → |𝑉⟩ + → |𝐻⟩ 0 + → |𝑉⟩ 1 0 11 + → |𝑉⟩ + → |𝑉⟩ 1 + → |𝐻⟩ 0 0 12 + → |𝑉⟩ + → |𝑉⟩ 1 + → |𝑉⟩ 1 1 13 + → |𝑉⟩ X → |↗⟩ 1/2 + → |𝐻⟩ 1/2 1/4 14 + → |𝑉⟩ X → |↗⟩ 1/2 + → |𝑉⟩ 1/2 1/4 15 + → |𝑉⟩ X → |↘⟩ 1/2 + → |𝐻⟩ 1/2 1/4 16 + → |𝑉⟩ X → |↘⟩ 1/2 + → |𝑉⟩ 1/2 1/4

Figura 7. 16 Posibles casos del BB84 con la base +. La columna 𝑃𝐸𝑣𝑒 indica la probabilidad de que Eve obtenga lo indicado según el fotón enviado por Alice. Asimismo, 𝑃𝐵𝑜𝑏 indica la probabilidad de que Bob mida lo indicado según lo enviado por Eve y por último, 𝑃𝑓𝑖𝑛𝑎𝑙 indica la probabilidad de que tanto Eve como Alice hayan medido lo

expuesto. Para hallar esta última: 𝑃𝑓𝑖𝑛𝑎𝑙 = 𝑃𝐸𝑣𝑒 ∙ 𝑃𝐵𝑜𝑏 .Existen otros 16 casos posibles con la base X [2]

Como se observa, la fracción media de información sobre los fotones que Eve posee es 1/2,

pues la mitad de las veces, estadísticamente, Eve elige la base correcta. Asimismo, existe la

posibilidad de que el fotón medido por Bob, aun habiendo compartido base, no coincida con el

enviado por Alice debido a la existencia de un espía que perturbe los fotones. La probabilidad

de que los fotones no sean idénticos es lo que se conoce como quantum bit error date (QBER

escrito como Q). En la figura 7, se puede apreciar que la probabilidad de que esto suceda es

de:

𝑄 =

𝐶𝑎𝑠𝑜𝑠 𝑞𝑢𝑒 𝑛𝑜 𝑐𝑜𝑚𝑝𝑎𝑟𝑡𝑒𝑛 𝑏𝑖𝑡

𝐶𝑎𝑠𝑜𝑠 𝑝𝑜𝑠𝑖𝑏𝑙𝑒𝑠=

4 𝑐𝑎𝑠𝑜𝑠 (𝑐𝑎𝑠𝑜 𝑛º6, 8, 13 𝑦 15)

16 𝑐𝑎𝑠𝑜𝑠= 25% (16)

Actualmente, sin embargo, se debe tener en cuenta que el poder de computo de un intruso

puede ser mucho mayor. Para ello, se hace uso de la teoría clásica de la información, una rama

de las matemáticas aplicadas creada en 1946 por Shannon[7] que sienta la bases de las

comunicaciones modernas y del data processing. Gracias a ella, se sabe que el conocimiento

Page 17: Código TFG: OPT03 Luz no clásica, definición, tipos ...

15

que Eve posee se calcula con respecto al de Bob es decir, basándose en los errores

encontrados en la raw key:

𝐼𝐸𝑣𝑒 = 1 − 𝐼𝐵𝑜𝑏 = −𝑄𝑙𝑜𝑔2𝑄 − (1 − 𝑄)𝑙𝑜𝑔2(1 − 𝑄) (17)

Resolviendo esta ecuación, resulta 𝐼𝐸𝑣𝑒 = 𝐼𝐵𝑜𝑏, (la información de Bob y Eve es la misma)

cuando Q>11%. Por tanto, por encima de este límite Eve ha conseguido realizar un ataque

perfecto y la clave debe ser desechada. Si por lo contrario, Q está por debajo del umbral

(𝑄 < 11%), Bob posee mayor información que Eve. En este caso, se podrá continuar con el

procedimiento, pasando al classical post-processing con el fin de minimizar los errores,

produciendo más cadenas de bits correlacionados (error correction) y reducir la poca

información que posea Eve (privacy information). [2]

3.4. LA PARADOJA EPR: ENTRELAZAMIENTO CUÁNTICO

Otras de las peculiaridades cuánticas que asienta la base de la seguridad de los distintos

protocolos cuánticos es lo que se conoce como entrelazamiento. El entrelazamiento cuántico

es el fenómeno por el cual dos partículas o subsistemas están correlacionados más allá de lo

que permite explicar un sencillo sistema causal clásico. A veces se ilustra diciendo que una

medida realizada en una de las partículas influencia el estado de otra con la que está

entrelazada instantáneamente, aunque estén a años luz de distancia.

Esta posibilidad fue expuesta por primera vez en 1935 en lo que se conoce como la paradoja

EPR, titulada así por sus autores Einstein, Podolsky y Rosen[4]. Se trataba de un experimento

mental (pues las condiciones requeridas eran ideales) que partía de un sistema compuesto por

dos fotones entrelazados (aunque estrictamente hablando los autores se referían a partículas

sin especificar su naturaleza y hablaban de las variables posición y momento). De esta

manera, al estar entrelazados, en el momento en que se medía el estado de un fotón se sabría

instantáneamente el estado del otro. Una de las posibilidades es que o ambos fotones estén

polarizados horizontalmente, o ambos verticalmente:

1

√2|𝐻⟩⨂|𝐻⟩ +

1

√2 |𝑉⟩⨂|𝑉⟩ = =

1

√2(|𝐻𝐻⟩ + |𝑉𝑉⟩), (18)

El significado preciso de entrelazamiento entre dos fotones es que estos no pueden ser

descritos de forma independiente. Es decir, ninguno de los dos fotones posee por sí solo un

estado bien definido con propiedades bien definidas. Lo que sucede es que sus propiedades

están entrelazadas de tal manera que son sus estados relativos los que están bien definidos.

Esto es, al saber, por ejemplo en (18), que el primer fotón es medido como |𝐻⟩, el segundo

fotón tiene que colapsar necesariamente en |𝐻⟩. Para comprobar esto se va a tomar la

ecuación (18). Como se ha dicho, se trata de un sistema compuesto por dos fotones, y como ya

sabemos, el estado de un fotón se puede describir como (3). Luego el estado para dos fotones,

si se tratase de dos fotones cuyos estados fueran independientes, sería:

|𝜓⟩ = |𝛼⟩⨂|𝛽⟩ = cosαcosβ|𝐻𝐻⟩ + cosαsinβ|𝐻𝑉⟩ + sinαcosβ|𝑉𝐻⟩ + sinαsinβ|𝑉𝑉⟩ . (19)

Sin embargo, a la hora de igualar (18) con (19), resulta que cosαcosβ = sinαsinβ =1

√2

mientras que cosαsinβ = sinαcosβ = 0, lo que es contradictorio. Por tanto, se ha podido

Page 18: Código TFG: OPT03 Luz no clásica, definición, tipos ...

16

demostrar que el estado de entrelazamiento de dos fotones, un estado completamente válido,

supone que cada fotón no pueda describirse independientemente[2].

Esta interdependencia del estado de dos partículas más allá de la influencia causal fue

propuesta por Einstein y sus compañeros como un absurdo siendo un contraargumento de la

teoría cuántica. Basándose en principios clásicos como el realismo y el principio de localidad,

defendían que la mecánica cuántica se trataba de una teoría física incompleta. Si nada puede

viajar a mayor velocidad que la luz en el vacío, es imposible que el segundo fotón se pueda

enterar al instante del resultado de una medida elegida arbitrariamente en el primero

teniendo una influencia sobre sus propiedades (localidad). Asimismo, una partícula debe tener

un estado bien definido anterior a su observación (realismo).

3.5. TEOREMA DE BELL

A pesar de que la paradoja EPR hizo hincapié en uno de los principios cuánticos más

interesantes, no fue hasta 1964 que éste fue investigado en profundidad por el físico John S.

Bell. Para comenzar su estudio se basó en una posible teoría de variables ocultas en un modelo

de causación clásico que pudiese explicar el entrelazamiento cuántico y el problema de no

localidad que éste supone. Concluyó su trabajo con la conocida desigualdad de Bell, que al ser

quebrantada, pone de manifiesto la imposibilidad de una teoría determinista local de variables

ocultas.

Para explicar esto, primeramente se introduce el coeficiente de correlación (E(a,b)) que se

trata de una medida del grado de correlación que existe entre los fotones. Si se parte del

estado singlete, estado máximamente entrelazado que representa el estado de polarización de

los dos fotones que viajan desde la fuente hacia Alice y Bob respectivamente:

|𝜓−⟩ =

1

√2(|𝐻𝑉⟩ − |𝑉𝐻⟩) , (20)

y sabiendo que los posibles resultados tras el polarizador que pueden medir Alice (fotón a) y

Bob (fotón b) son +1 (si el fotón atraviesa el polarizador) y -1 (si el fotón es absorbido), se

puede calcular el coeficiente de correlación como el valor medio esperado entre los resultados

medidos por ambos conjuntamente, es decir:

𝐸(𝑎, 𝑏) = ⟨𝑎𝑏⟩ = 1 · 1 · 𝑝+,+ + 1 · (−1) ⋅ 𝑝+,− + (−1) ⋅ 1 ⋅ 𝑝−,+ + (−1)

⋅ (−1) ⋅ 𝑝−,− = 𝑝+,+ − 𝑝+,− − 𝑝−,+ + 𝑝−,− , (21)

donde 𝑝𝑗,𝑘 son las probabilidades conjuntas de que el correspondiente fotón pase, 𝑗, 𝑘 = + o

no pase 𝑗, 𝑘 = − calculadas como:

𝑝+,+ = |(⟨𝑎|⨂⟨𝑏|)|𝜓−⟩|2, 𝑝+,− = |(⟨𝑎|⨂⟨𝑏⊥|)|𝜓−⟩|2, (22)

𝑝−,+ = |(⟨𝑎⊥|⨂⟨𝑏|)|𝜓−⟩|2, 𝑝−,− = |(⟨𝑎⊥|⨂⟨𝑏⊥|)|𝜓−⟩|2, (23)

siendo |𝑎⟩ 𝑦 |𝑏⟩ los vectores reales que representa las direcciones de los ejes de los correspondientes polarizadores:

|𝑎⟩ = cos𝛼𝑎|𝐻⟩ + sin𝛼𝑎|𝑉⟩ |𝑎⊥⟩ = cos𝛼𝑎|𝑉⟩ − sin𝛼𝑎|𝐻⟩, (24)

Page 19: Código TFG: OPT03 Luz no clásica, definición, tipos ...

17

|𝑏⟩ = cos𝛼𝑏|𝐻⟩ + sin𝛼𝑏|𝑉⟩ |𝑏⊥⟩ = cos𝛼𝑏|𝑉⟩ − sin𝛼𝑏|𝐻⟩. (25)

De esta manera, se pueden calcular las distintas probabilidades, obteniendo:

𝑝+,+ = |(⟨𝑎|⨂⟨𝑏|)|𝜓−⟩|2 =1

2sin2(𝛼𝑎 − 𝛼𝑏) =

1

4[1 − cos2(𝛼𝑎 − 𝛼𝑏)] = 𝑝−,− (26)

𝑝+,− = 𝑝−,+ =

1

4[1 + cos2(𝛼𝑎 − 𝛼𝑏)]. (27)

Sustituyendo (26) y (27) en (21) se obtiene:

𝐸(𝑎, 𝑏) = −cos [2(𝛼𝑎 − 𝛼𝑏)] (28)

Los posibles resultados de 𝐸(𝑎𝑏) (28) abarcan desde -1 a +1. El límite -1 es el valor conocido

como anti-correlación donde los fotones tendrán resultados opuestos (trasmitido y absorbido

o viceversa) y el limite +1 se denomina la perfecta correlación donde ambos fotones serán o

transmitidos o absorbidos. [2]

Este es el resultado puramente cuántico. Sin embargo, es conveniente examinar las

correlaciones que predeciría una teoría realista y local. En los comienzos de la teoría cuántica,

Einstein defendía la idea clásica de que todos los sistemas físicos tienen a nivel microscópico

elemental valores bien definidos de cualquier magnitud física independientemente del

observador. Desde este punto de vista, la aleatoriedad cuántica que se ha observado sería el

resultado de ignorar variables microscópicas que escapan a nuestro control. Esto recibió el

nombre de variables ocultas (𝜆). John S. Bell pudo demostrar que esta suposición tenía

consecuencias comprobables. Para ello, partió de la suposición de que el resultado medido por

Alice y Bob dependiese tan solo de los ajustes de sus respectivos instrumentos (parámetros

controlables) y de unos parámetros incontrolables (variables ocultas 𝜆 con cierta distribución

de probabilidad 𝜌(𝜆)). Con ello, la función de correlación se puede calcular como:

𝐸(𝑎, 𝑏) = ∫ 𝐴(𝑎, 𝜆)𝐵(𝑏, 𝜆)𝜌(𝜆)𝑑𝜆 , (29)

donde 𝐴(𝑎, 𝜆) = ±1, 𝐵(𝑏, 𝜆) = ±1, representan el resultado de la medida de Alice con el

polarizador 𝑎 y el de la medida de Bob con el polarizador 𝑏12, respectivamente, y además 𝜌(𝜆)𝑑𝜆 ≥ 0 y ∫ 𝜌(𝜆)𝑑𝜆 = 1. Si ahora se consideran dos posibles ajustes para cada participante, es decir, dos direcciones en

las que dirigir su polarizador, a y a’ y b y b’, se puede calcular13:

𝐸(𝑎, 𝑏) − 𝐸(𝑎, 𝑏′) = ∫[𝐴(𝑎, 𝜆)𝐵(𝑏, 𝜆){1 ± 𝐴(𝑎′, 𝜆)𝐵(𝑏′, 𝜆)}]𝜌(𝜆)𝑑𝜆 −

∫[𝐴(𝑎, 𝜆)𝐵(𝑏′, 𝜆){1 ± 𝐴(𝑎′, 𝜆)𝐵(𝑏, 𝜆)}]𝜌(𝜆)𝑑𝜆 (30)

que aplicando la restricción |𝐴(𝑎, 𝜆)| ≤ 1 |𝐵(𝑏, 𝜆)| ≤ 1 (31)

12

La idea de localidad está plasmada en la mutua independencia de los resultados de las medidas de A y B en (29) donde se ha escrito A(a, λ) y B(b, λ) en vez de 𝐴(𝑎, 𝑏, 𝜆) 𝑦 𝐵(𝑏, 𝑎, 𝜆) 13

Para una demostración más minuciosa del procedimiento seguido desde (30) hasta obtener (32) véase Chapter 20: Bell's Theorem and Its Consequences. Ballentine, L. E. (1998). Quantum Mechanics: A Modern Development.

Page 20: Código TFG: OPT03 Luz no clásica, definición, tipos ...

18

se consigue la siguiente expresión: |⟨𝑆⟩| = |𝐸(𝑎, 𝑏) − 𝐸(𝑎, 𝑏′)| + |𝐸(𝑎′, 𝑏′) + 𝐸(𝑎′, 𝑏)| ≤ 2. (32)

Esta relación es lo que se conoce como desigualdad de Bell. Si esta se cumple, no se puede

excluir la existencia de variables ocultas causantes del entrelazamiento cuántico y sus

propiedades. En cambio, si la desigualdad es violada, como se ha podido comprobar

experimentalmente para ciertas orientaciones, se puede concluir que la teoría determinista

local de variables ocultas es incompatible con la mecánica cuántica.

3.6. PROTOCOLO E91

Basándose en el teorema de Bell anteriormente expuesto y en el entrelazamiento cuántico,

Artur K. Ekert propuso un nuevo algoritmo en 1991: el protocolo E91[16]. En este método, Alice

prepara dos fotones entrelazados y estos son distribuidos de modo que Alice y Bob tengan

cada uno, uno de los dos fotones.

i. Según van llegado los fotones a cada participante, estos utilizan una base elegida

aleatoriamente para medirlos siendo los posibles resultados o +1 (fotón transmitido) o -1

(fotón absorbido). Estas posibles direcciones pueden ser14:

ii. Una vez hayan sido transmitidos y medidos todos los fotones según una de las tres

opciones de (33) para Alice y (34) para Bob, Alice y Bob comparten públicamente la

dirección escogida para medir cada fotón, sin revelar el resultado obtenido. A

continuación, dividen los pares de fotones en dos grupos diferentes: el primer grupo

contiene aquellos fotones para los cuales las orientaciones elegidas difieren. Mientras que

el segundo incluye aquellos para los cuales las direcciones son iguales, es decir, aquellos

pares de fotones donde para medir el que le ha llegado, Alice ha utilizado 𝑎2 o 𝑎1 y Bob

para el suyo 𝑏3 o 𝑏2, respectivamente.

iii. Tras esto, comparten los resultados obtenidos para los fotones del primer grupo. De este

modo, Alice y Bob son capaces de calcular el valor de S. Si los fotones no han sido

interceptados, el valor de S debería ser según (32) y (28):

14

Estrictamente hablando, en el artículo original, Ekert se basa en pares de partículas entrelazadas de spin ½ y no en fotones. Asimismo, las orientaciones que se exponen para medir el componente spin difieren de las aquí propuestas. Sin embargo, a pesar de las diferencias, los resultados y objetivos se logran igualmente.

𝑎1 = 0, 𝑎2 =𝜋

8 , 𝑎3 =

𝜋

4

𝑏1 = −𝜋

8 , 𝑏2 = 0, 𝑏3 =

𝜋

8

(33) (34)

Figura 8. Posibles orientaciones para E91

Page 21: Código TFG: OPT03 Luz no clásica, definición, tipos ...

19

𝑆 = 𝐸(𝑎1, 𝑏3) + 𝐸(𝑎3, 𝑏3) + 𝐸(𝑎1, 𝑏1) − 𝐸(𝑎3, 𝑏1) =

= −cos (−𝜋

4) − cos (−

𝜋

4) − cos (−

𝜋

4) + cos (

3𝜋

4) = −2√2

(35)

Por tanto, si existiese un intruso, entonces 𝑆 ≠ 2√2 . De esta manera, Alice y Bob pueden

confirmar si la comunicación ha sido segura y por consiguiente, utilizar los fotones del

segundo grupo como clave. Estos fotones, al compartir base, están perfectamente anti-

correlacionados, es decir:

𝐸(𝑎1, 𝑏2) = 𝐸(𝑎2, 𝑏3) = − cos(0) = −1, (36)

por lo que se sabe con la máxima certeza que los resultados de Alice Y Bob son contrarios y

se pueden convertir en una secuencia de bits secreta.

Si por algún casual existiese un espía, su participación en la distribución de los fotones

supondría una perturbación fácilmente reconocible basándose en la propia mecánica cuántica,

al igual que se hacía en el protocolo BB84. En este caso, su intervención sería equivalente a

introducir elementos de realidad física a la medida de la polarización de los fotones. En ese

caso, S se calcularía como:

𝑆 = ∫ 𝜌(𝑛𝑎, 𝑛𝑏)𝑑𝑛𝑎𝑑𝑛𝑏[(𝑎1 · 𝑛𝑎)(𝑏1 · 𝑛𝑏) − (𝑎1 · 𝑛𝑎)(𝑏3 · 𝑛𝑏)

+ (𝑎3 · 𝑛𝑎)(𝑏1 · 𝑛𝑏) + (𝑎3 · 𝑛𝑎)(𝑏3 · 𝑛𝑏)] (37)

donde 𝑛𝑎 𝑦 𝑛𝑏 constituyen vectores unitarios para los fotones a y b, respectivamente

orientados en la dirección de los ejes que utiliza el intruso y la probabilidad normalizada

𝜌(𝑛𝑎 , 𝑛𝑏) describe la estrategia del espía. Por tanto, el tercero rompe las propiedades del

entrelazamiento, y esto se puede comprobar haciendo uso de la desigualdad de Bell, ya

expuesta. Es decir, si al calcular S se obtiene −2 ≤ 𝑆 ≤ 2, Alice y Bob descartan la clave por la

existencia de un extraño.

4. CONCLUSIÓN

Desde sus inicios el talón de Aquiles de la criptografía ha sido “el tercer ojo”, esa intrusión no

deseada de un extraño observador que sigilosamente y sin ser detectado se interpone entre

un emisor y su receptor. Cada vez que un nuevo ataque se producía, los protocolos

criptográficos tenían que ser revaluados, produciéndose una lucha interminable entre

codificadores y descodificadores A pesar de haber hallado el algoritmo inquebrantable, “el

tercer ojo” podía seguir “viendo” sin ser visto. Ha sido gracias al desarrollo de la luz cuántica,

casi un siglo más tarde, cuando el “el tercer ojo” ha empezado a ser visto.

A lo largo del trabajo se han ido exponiendo los distintos protocolos tanto los pertenecientes a

la física clásica como los basados en la teoría cuántica, haciendo así un repaso a la historia de

esta ciencia. Desde la clave César, pasando por el OTP y su mejora con la clave pública

(protocolos clásicos) hasta llegar al BB84 y el E91 (protocolos cuánticos) se han ido formulando

sus pros y contras con un resultado claramente a favor de los protocolos cuánticos.

Tras advertir que un ordenador cuántico con las mismas capacidades que un ordenador

moderno podría suponer una gran amenaza para la criptografía actual (imprescindible en el

mundo tecnológico en el que vivimos: firma electrónica, compra online…), se constató que la

propia cuántica era la solución a este problema.

Page 22: Código TFG: OPT03 Luz no clásica, definición, tipos ...

20

El BB84 basado principalmente en el teorema de no clonación, vinculado a la idea de que

medir un sistema lo perturba, fue el comienzo de la criptografía cuántica. Se debe hacer

hincapié en la importancia de la perspectiva cuántica en este método pues le proporciona una

base sólida gracias a sus leyes irrefutables. Si desde un punto de vista clásico se siguiese el

mismo procedimiento, éste no resultaría igual de eficaz. Es decir, si en vez de tratarse de

emisiones de fotones individuales, Alice enviase un paquete de ondas, Eve podría copiar cada

haz de luz sin ninguna dificultad. Para ello, tan solo tendría que utilizar divisores de haz,

haciendo tantas copias exactas de menor intensidad como fuera necesario para determinar el

contenido del pulso y con esa información luego replicar el pulso original que enviaría a Bob,

pasando su intrusión completamente inadvertida.

Analizados los protocolos clásicos y vistas sus lagunas (poder ser quebrantados por un

ordenador con una mayor capacidad de cómputo como sería el cuántico que utiliza qubits) la

aparición de la criptografía cuántica supone la salvación de esta ciencia. La teoría cuántica, una

de las teorías más interesantes y misteriosas de la historia de la humanidad, nos ha obligado a

reformular nuestra visión de la realidad. Si otros descubrimientos han supuesto grandes

avances en la ciencia, quien sabe lo que la “revolucionaria” cuántica nos deparará.

5. REFERENCIAS

[1] Versyp, T. (2017). Aplicaciones de la Física Cuántica. Cuántica, conciencia y cosmología.

[2] Scarani, V., Lynn, C., & Yang, L. S. (2010). SIX QUANTUM PIECES A First Course in Quantum Physics. Singapore: World Scientific Publishing Co. Pte. Ltd.

[3] Wagner, N. R. (2003). The Laws of Cryptography with Java Code. [4] Alvarez, L. C., Fritis Palacios, R., & Collao Caiconte, P. (2015). Revista chilena de ingeniería,

23(2), 245-258. [5] Vernam, G. S. (1926). Cipher printing telegraph systems for secret wire and radio

telegraphic communications‖, J. Amer. Inst. Elec. Eng., 45, 109-115. [6] Lo, H.-K., & Zhao, Y. (2009). Quantum Cryptography. Encyclopedia of Complexity and

Systems Science, 8, 7265-7289.

[7] Shannon, C. E. (1949). Communication theory of secrecy systems, Bell Syst. Tech. J., 28, pp.656-715.

[8] Haynes, J. E. and Klehr, H., Venona: decoding Soviet espionage in America, Yale University Press, 1999.

[9] Qi, B., Quian, L., & Lo, H.-K. (2010). A brief introduction of quantum cryptography for engineers.

[10] Understanding Quantum Cryptography. (2020). ID QUANTIQUE SA.

[11] Rivest, R. L., Shamir, A., and Adleman, L. M., ―A method for obtaining digital signatures and public-key cryptosystems‖, Commun. ACM, 21, pp.120-126, 1978

[12] Hughes, R. J., Alde, D., Dyer, P., Luther, G., Morgan, G., & Schauer, M. (1995). Quantum Cryptography.

[13] RUS, C. (8 de Enero de 2019). Xataka. Obtenido de https://www.xataka.com/ordenadores/ibm-presenta-ibm-q-system-one-primer-ordenador-cuantico-para-uso-comercial

[14] Bennett, C. H., and Brassard, G., Quantum cryptography: public key distribution and coin tossing‖, in Proceedings of the IEEE International Conference on Computers, Systems and Signal Processing, Bangalore, India, (IEEE, New York), pp.175-179, 1984.

[15] Qué es el/la. (s.f.). Obtenido de https://queesela.net/polarizacion/ [16] Ekert, A. K. (5 de Agosto de 1991). Quantum Cryptography Based on Bell's Theorem.

Physical review letters, 67(6).


Recommended