Saltar al contenido principal

Combinaciones convexas de matrices de densidad

Selecciones probabilísticas de matrices de densidad

Un aspecto esencial de las matrices de densidad es que las selecciones probabilísticas de estados cuánticos se representan mediante combinaciones convexas de sus matrices de densidad asociadas.

Si, por ejemplo, tenemos dos matrices de densidad, ρ\rho y σ,\sigma, que representan estados cuánticos de un sistema X,\mathsf{X}, y preparamos el sistema con probabilidad pp en el estado ρ\rho y con probabilidad 1p1 - p en el estado σ,\sigma, entonces el estado cuántico resultante se representa mediante la matriz de densidad

pρ+(1p)σ.p \rho + (1 - p) \sigma.

Más generalmente, si tenemos mm estados cuánticos representados por matrices de densidad ρ0,,ρm1,\rho_0,\ldots,\rho_{m-1}, y un sistema se prepara en el estado ρk\rho_k con probabilidad pkp_k para un vector de probabilidad (p0,,pm1),(p_0,\ldots,p_{m-1}), el estado resultante se representa mediante la matriz de densidad

k=0m1pkρk.\sum_{k = 0}^{m-1} p_k \rho_k.

Esto es una combinación convexa de las matrices de densidad ρ0,,ρm1.\rho_0,\ldots,\rho_{m-1}.

De esto se deduce que, si tenemos mm vectores de estado cuántico ψ0,,ψm1\vert\psi_0\rangle,\ldots,\vert\psi_{m-1}\rangle y preparamos un sistema en el estado ψk\vert\psi_k\rangle con probabilidad pkp_k para cada k{0,,m1},k\in\{0,\ldots,m-1\}, el estado obtenido se representa mediante la matriz de densidad

k=0m1pkψkψk.\sum_{k = 0}^{m-1} p_k \vert\psi_k\rangle\langle\psi_k\vert.

Si, por ejemplo, un qubit se prepara en el estado 0\vert 0\rangle con probabilidad 1/21/2 y en el estado +\vert + \rangle con probabilidad 1/2,1/2, la representación como matriz de densidad del estado obtenido es

1200+12++=12(1000)+12(12121212)=(34141414).\frac{1}{2} \vert 0\rangle\langle 0 \vert + \frac{1}{2} \vert +\rangle\langle + \vert = \frac{1}{2} \begin{pmatrix} 1 & 0\\[1mm] 0 & 0 \end{pmatrix} + \frac{1}{2} \begin{pmatrix} \frac{1}{2} & \frac{1}{2}\\[2mm] \frac{1}{2} & \frac{1}{2} \end{pmatrix} = \begin{pmatrix} \frac{3}{4} & \frac{1}{4}\\[2mm] \frac{1}{4} & \frac{1}{4} \end{pmatrix}.

En la formulación simplificada de la información cuántica, promediar vectores de estado cuántico no funciona. Por ejemplo, el vector

120+12+=12(10)+12(1212)=(2+2424)\frac{1}{2} \vert 0\rangle + \frac{1}{2} \vert + \rangle = \frac{1}{2} \begin{pmatrix}1\\[1mm] 0\end{pmatrix} + \frac{1}{2} \begin{pmatrix}\frac{1}{\sqrt{2}}\\[2mm]\frac{1}{\sqrt{2}}\end{pmatrix} = \begin{pmatrix}\frac{2 + \sqrt{2}}{4}\\[2mm]\frac{\sqrt{2}}{4}\end{pmatrix}

no es un vector de estado cuántico válido, ya que su norma euclidiana no es igual a 1.1. Un ejemplo más extremo que muestra que esto no funciona para vectores de estado cuántico: tomamos un vector de estado cuántico arbitrario ψ\vert\psi\rangle y consideramos nuestro estado como ψ\vert\psi\rangle con probabilidad 1/21/2 y ψ-\vert\psi\rangle con probabilidad 1/2.1/2. Estos estados difieren en una fase global, por lo que en realidad son el mismo estado — pero promediarlos da el vector cero, que no es un vector de estado cuántico válido.

El estado completamente mezclado

Supongamos que establecemos el estado de un qubit aleatoriamente como 0\vert 0\rangle o 1,\vert 1\rangle, cada uno con probabilidad 1/2.1/2. La matriz de densidad que representa el estado resultante es la siguiente.

1200+1211=12(1000)+12(0001)=(120012)=12I\frac{1}{2} \vert 0\rangle\langle 0\vert + \frac{1}{2} \vert 1\rangle\langle 1\vert = \frac{1}{2} \begin{pmatrix} 1 & 0\\[1mm] 0 & 0 \end{pmatrix} + \frac{1}{2} \begin{pmatrix} 0 & 0\\[1mm] 0 & 1 \end{pmatrix} = \begin{pmatrix} \frac{1}{2} & 0\\[1mm] 0 & \frac{1}{2} \end{pmatrix} = \frac{1}{2} \mathbb{I}

(En esta ecuación, el símbolo I\mathbb{I} denota la matriz identidad 2×2.2\times 2.) Este es un estado especial conocido como el estado completamente mezclado. Representa incertidumbre total sobre el estado de un qubit, de forma similar a un bit aleatorio uniformemente distribuido en el contexto probabilístico.

Supongamos ahora que cambiamos el procedimiento: en lugar de los estados 0\vert 0\rangle y 1,\vert 1\rangle, usamos los estados +\vert + \rangle y .\vert - \rangle. Podemos calcular la matriz de densidad que describe el estado resultante de manera similar.

12+++12=12(12121212)+12(12121212)=(120012)=12I\frac{1}{2} \vert +\rangle\langle +\vert + \frac{1}{2} \vert -\rangle\langle -\vert = \frac{1}{2} \begin{pmatrix} \frac{1}{2} & \frac{1}{2}\\[2mm] \frac{1}{2} & \frac{1}{2} \end{pmatrix} + \frac{1}{2} \begin{pmatrix} \frac{1}{2} & -\frac{1}{2}\\[2mm] -\frac{1}{2} & \frac{1}{2} \end{pmatrix} = \begin{pmatrix} \frac{1}{2} & 0\\[2mm] 0 & \frac{1}{2} \end{pmatrix} = \frac{1}{2} \mathbb{I}

Es la misma matriz de densidad que antes, aunque hemos cambiado los estados. De hecho, obtendríamos el mismo resultado — el estado completamente mezclado — sustituyendo cualesquiera dos vectores de estado cuántico de qubit ortogonales en lugar de 0\vert 0\rangle y 1.\vert 1\rangle.

Esto es una característica, no un error. Efectivamente obtenemos el mismo estado de ambas formas. Es decir, no hay forma de distinguir los dos procedimientos mediante mediciones sobre el qubit producido, ni siquiera estadísticamente. Nuestros dos procedimientos diferentes son simplemente formas distintas de preparar este estado.

Podemos verificar que esto tiene sentido pensando en lo que podríamos esperar aprender si seleccionamos aleatoriamente un estado de uno de los dos conjuntos posibles de estados {0,1}\{\vert 0\rangle,\vert 1\rangle\} y {+,}.\{\vert +\rangle,\vert -\rangle\}. Por simplicidad, supongamos que realizamos una operación unitaria UU sobre nuestro qubit y luego medimos en la base estándar.

En el primer escenario, el estado del qubit se elige uniformemente del conjunto {0,1}.\{\vert 0\rangle,\vert 1\rangle\}. Si el estado es 0,\vert 0\rangle, obtenemos los resultados 00 y 11 con probabilidades

0U02y1U02\vert \langle 0 \vert U \vert 0 \rangle \vert^2 \quad\text{y}\quad \vert \langle 1 \vert U \vert 0 \rangle \vert^2

respectivamente. Si el estado es 1,\vert 1\rangle, obtenemos los resultados 00 y 11 con probabilidades

0U12y1U12.\vert \langle 0 \vert U \vert 1 \rangle \vert^2 \quad\text{y}\quad \vert \langle 1 \vert U \vert 1 \rangle \vert^2.

Como las dos posibilidades ocurren cada una con probabilidad 1/2,1/2, obtenemos el resultado 00 con probabilidad

120U02+120U12\frac{1}{2}\vert \langle 0 \vert U \vert 0 \rangle \vert^2 + \frac{1}{2}\vert \langle 0 \vert U \vert 1 \rangle \vert^2

y el resultado 11 con probabilidad

121U02+121U12.\frac{1}{2}\vert \langle 1 \vert U \vert 0 \rangle \vert^2 + \frac{1}{2}\vert \langle 1 \vert U \vert 1 \rangle \vert^2.

Ambas expresiones son iguales a 1/2.1/2. Una forma de argumentar esto es usar un hecho del álgebra lineal que puede considerarse como una generalización del teorema de Pitágoras.

Teorema

Sea {ψ1,,ψn}\{\vert\psi_1\rangle,\ldots,\vert\psi_n\rangle\} una base ortonormal de un espacio vectorial (real o complejo) V.\mathcal{V}. Para cualquier vector ϕV\vert \phi\rangle \in \mathcal{V} se cumple ψ1ϕ2++ψnϕ2=ϕ2.\vert \langle \psi_1\vert\phi\rangle\vert^2 + \cdots + \vert \langle \psi_n \vert \phi \rangle\vert^2 = \| \vert\phi\rangle \|^2.

Podemos aplicar este teorema para determinar las probabilidades de la siguiente manera. La probabilidad de obtener 00 es

120U02+120U12=12(0U02+0U12)=12(0U02+1U02)=12U02\begin{aligned} \frac{1}{2}\vert \langle 0 \vert U \vert 0 \rangle \vert^2 + \frac{1}{2}\vert \langle 0 \vert U \vert 1 \rangle \vert^2 & = \frac{1}{2} \Bigl( \vert \langle 0 \vert U \vert 0 \rangle \vert^2 + \vert \langle 0 \vert U \vert 1 \rangle \vert^2 \Bigr) \\[2mm] & = \frac{1}{2} \Bigl( \vert \langle 0 \vert U^{\dagger} \vert 0 \rangle \vert^2 + \vert \langle 1 \vert U^{\dagger} \vert 0 \rangle \vert^2 \Bigr)\\[2mm] & = \frac{1}{2} \bigl\| U^{\dagger} \vert 0 \rangle \bigr\|^2 \end{aligned}

y la probabilidad de obtener 11 es

121U02+121U12=12(1U02+1U12)=12(0U12+1U12)=12U12.\begin{aligned} \frac{1}{2}\vert \langle 1 \vert U \vert 0 \rangle \vert^2 + \frac{1}{2}\vert \langle 1 \vert U \vert 1 \rangle \vert^2 & = \frac{1}{2} \Bigl( \vert \langle 1 \vert U \vert 0 \rangle \vert^2 + \vert \langle 1 \vert U \vert 1 \rangle \vert^2 \Bigr) \\[2mm] & = \frac{1}{2} \Bigl( \vert \langle 0 \vert U^{\dagger} \vert 1 \rangle \vert^2 + \vert \langle 1 \vert U^{\dagger} \vert 1 \rangle \vert^2 \Bigr)\\[2mm] & = \frac{1}{2} \bigl\| U^{\dagger} \vert 1 \rangle \bigr\|^2. \end{aligned}

Como UU es unitaria, sabemos que UU^{\dagger} también es unitaria, lo que implica que tanto U0U^{\dagger} \vert 0 \rangle como U1U^{\dagger} \vert 1 \rangle son vectores unitarios. Por tanto, ambas probabilidades son iguales a 1/2.1/2. Esto significa que, independientemente de cómo elijamos U,U, solo obtenemos un bit aleatorio uniformemente distribuido de la medición.

Podemos realizar una verificación similar para cualquier otro par de estados ortonormales en lugar de 0\vert 0\rangle y 1.\vert 1\rangle. Como {+,}\{\vert + \rangle, \vert - \rangle\} es una base ortonormal, la probabilidad de obtener el resultado de medición 00 en el segundo procedimiento es, por ejemplo,

120U+2+120U2=12U02=12\frac{1}{2}\vert \langle 0 \vert U \vert + \rangle \vert^2 + \frac{1}{2}\vert \langle 0 \vert U \vert - \rangle \vert^2 = \frac{1}{2} \bigl\| U^{\dagger} \vert 0 \rangle \bigr\|^2 = \frac{1}{2}

y la probabilidad de obtener 11 es

121U+2+121U2=12U12=12.\frac{1}{2}\vert \langle 1 \vert U \vert + \rangle \vert^2 + \frac{1}{2}\vert \langle 1 \vert U \vert - \rangle \vert^2 = \frac{1}{2} \bigl\| U^{\dagger} \vert 1 \rangle \bigr\|^2 = \frac{1}{2}.

En particular, obtenemos exactamente las mismas estadísticas de salida que para los estados 0\vert 0\rangle y 1.\vert 1\rangle.

Estados probabilísticos

Los estados clásicos pueden representarse mediante matrices de densidad. Para cada estado clásico aa de un sistema X,\mathsf{X}, la matriz de densidad

ρ=aa\rho = \vert a\rangle \langle a \vert

representa al sistema X\mathsf{X} definitivamente en el estado clásico a.a. Para qubits,

00=(1000)y11=(0001),\vert 0\rangle \langle 0 \vert = \begin{pmatrix}1 & 0 \\ 0 & 0\end{pmatrix} \quad\text{y}\quad \vert 1\rangle \langle 1 \vert = \begin{pmatrix}0 & 0 \\ 0 & 1\end{pmatrix},

y en general hay exactamente un 11 en la diagonal en la posición correspondiente al estado clásico considerado, con todas las demás entradas iguales a cero.

Podemos entonces formar combinaciones convexas de estas matrices de densidad para representar estados probabilísticos. Suponiendo para simplificar que nuestro conjunto de estados clásicos es {0,,n1}\{0,\ldots,n-1\}: si X\mathsf{X} se encuentra en el estado aa con probabilidad pap_a para cada a{0,,n1},a\in\{0,\ldots,n-1\}, entonces la matriz de densidad obtenida es

ρ=a=0n1paaa=(p0000p1000pn1).\rho = \sum_{a = 0}^{n-1} p_a \vert a\rangle \langle a \vert = \begin{pmatrix} p_0 & 0 & \cdots & 0\\ 0 & p_1 & \ddots & \vdots\\ \vdots & \ddots & \ddots & 0\\ 0 & \cdots & 0 & p_{n-1} \end{pmatrix}.

En la dirección opuesta, cualquier matriz de densidad diagonal puede identificarse de forma natural con el estado probabilístico que se obtiene simplemente leyendo el vector de probabilidad de la diagonal.

Para ser claros: si una matriz de densidad es diagonal, esto no significa necesariamente que estemos hablando de un sistema clásico o que el sistema haya sido preparado mediante selección aleatoria de un estado clásico, sino más bien que el estado podría haberse obtenido mediante selección aleatoria de un estado clásico.

El hecho de que los estados probabilísticos se representen mediante matrices de densidad diagonales es consistente con la intuición sugerida al comienzo de la lección de que las entradas fuera de la diagonal describen el grado en que los dos estados clásicos correspondientes a la fila y columna de esa entrada se encuentran en superposición cuántica. Aquí todas las entradas fuera de la diagonal son cero, por lo que solo tenemos aleatoriedad clásica y nada se encuentra en superposición cuántica.

Matrices de densidad y el teorema espectral

Hemos visto que cuando formamos una combinación convexa de estados puros, obtenemos una matriz de densidad,

ρ=k=0m1pkψkψk.\rho = \sum_{k = 0}^{m-1} p_k \vert \psi_k\rangle \langle \psi_k \vert.

De hecho, toda matriz de densidad ρ\rho puede expresarse como una combinación convexa de estados puros de esta forma. Es decir, siempre existirá una colección de vectores unitarios {ψ0,,ψm1}\{\vert\psi_0\rangle,\ldots,\vert\psi_{m-1}\rangle\} y un vector de probabilidad (p0,,pm1)(p_0,\ldots,p_{m-1}) para los cuales se cumple la ecuación anterior.

Además, el número mm siempre puede elegirse igual al número de estados clásicos del sistema considerado, y podemos elegir los vectores de estado cuántico ortogonales. El teorema espectral, que encontramos en el curso "Fundamentos de los algoritmos cuánticos", nos permite concluir esto. Aquí presentamos una reformulación del teorema espectral como recordatorio.

Teorema

Teorema espectral: Sea MM una matriz compleja n×nn\times n normal. Existe una base ortonormal de vectores complejos nn-dimensionales {ψ0,,ψn1}\{\vert\psi_0\rangle,\ldots,\vert\psi_{n-1}\rangle \} junto con números complejos λ0,,λn1\lambda_0,\ldots,\lambda_{n-1}, tales que

M=λ0ψ0ψ0++λn1ψn1ψn1.M = \lambda_0 \vert \psi_0\rangle\langle \psi_0\vert + \cdots + \lambda_{n-1} \vert \psi_{n-1}\rangle\langle \psi_{n-1}\vert.

(Como recordatorio: una matriz MM es normal si satisface MM=MM.M^{\dagger} M = M M^{\dagger}. Las matrices normales son, por tanto, matrices que conmutan con su propia traspuesta conjugada.)

Podemos aplicar el teorema espectral a cualquier matriz de densidad ρ\rho dada, porque las matrices de densidad son siempre herméticas y, por tanto, normales. Esto nos permite escribir

ρ=λ0ψ0ψ0++λn1ψn1ψn1\rho = \lambda_0 \vert \psi_0\rangle\langle \psi_0\vert + \cdots + \lambda_{n-1} \vert \psi_{n-1}\rangle\langle \psi_{n-1}\vert

para una base ortonormal {ψ0,,ψn1}.\{\vert\psi_0\rangle,\ldots,\vert\psi_{n-1}\rangle\}. Queda por verificar que (λ0,,λn1)(\lambda_0,\ldots,\lambda_{n-1}) es un vector de probabilidad, que luego podemos renombrar como (p0,,pn1)(p_0,\ldots,p_{n-1}) si lo deseamos.

Los números λ0,,λn1\lambda_0,\ldots,\lambda_{n-1} son los valores propios de ρ,\rho, y como ρ\rho es positiva semidefinida, estos números deben ser números reales no negativos. Podemos concluir que λ0++λn1=1\lambda_0 + \cdots + \lambda_{n-1} = 1 a partir del hecho de que ρ\rho tiene traza 1.1. Al desarrollar los detalles, surge la oportunidad de señalar la siguiente propiedad importante y muy útil de la traza.

Teorema

Propiedad ciclica de la traza: Para cualesquiera dos matrices AA y BB que al multiplicarse producen una matriz cuadrada ABAB, se cumple la igualdad Tr(AB)=Tr(BA).\operatorname{Tr}(AB) = \operatorname{Tr}(BA).

Obsérvese que este teorema también funciona cuando AA y BB no son ellas mismas matrices cuadradas. Es decir, AA puede ser n×mn\times m y BB puede ser m×nm\times n para una elección de enteros positivos nn y m,m, de modo que ABAB es una matriz cuadrada n×nn\times n y BABA es una matriz cuadrada m×m.m\times m.

En particular, si tomamos AA como un vector columna ϕ\vert\phi\rangle y BB como un vector fila ϕ,\langle \phi\vert, vemos que

Tr(ϕϕ)=Tr(ϕϕ)=ϕϕ.\operatorname{Tr}\bigl(\vert\phi\rangle\langle\phi\vert\bigr) = \operatorname{Tr}\bigl(\langle\phi\vert\phi\rangle\bigr) = \langle\phi\vert\phi\rangle.

La segunda igualdad se deduce del hecho de que ϕϕ\langle\phi\vert\phi\rangle es un escalar, que también podemos considerar como una matriz 1×11\times 1 cuya traza es su única entrada. Con este hecho y la linealidad de la función traza, podemos concluir que λ0++λn1=1.\lambda_0 + \cdots + \lambda_{n-1} = 1.

1=Tr(ρ)=Tr(λ0ψ0ψ0++λn1ψn1ψn1)=λ0Tr(ψ0ψ0)++λn1Tr(ψn1ψn1)=λ0++λn1\begin{gathered} 1 = \operatorname{Tr}(\rho) = \operatorname{Tr}\bigl(\lambda_0 \vert \psi_0\rangle\langle \psi_0\vert + \cdots + \lambda_{n-1} \vert \psi_{n-1}\rangle\langle \psi_{n-1}\vert\bigr)\\[2mm] = \lambda_0 \operatorname{Tr}\bigl(\vert \psi_0\rangle\langle \psi_0\vert\bigr) + \cdots + \lambda_{n-1} \operatorname{Tr}\bigl(\vert \psi_{n-1}\rangle\langle \psi_{n-1}\vert\bigr) = \lambda_0 + \cdots + \lambda_{n-1} \end{gathered}

Alternativamente, podemos llegar a la misma conclusión utilizando el hecho de que la traza de una matriz cuadrada (incluso una no normal) es igual a la suma de sus valores propios.

Hemos demostrado así que toda matriz de densidad ρ\rho dada puede expresarse como una combinación convexa de estados puros. También vemos que además podemos elegir los estados puros ortogonales. Esto significa, en particular, que nunca necesitamos elegir el número mm mayor que el tamaño del conjunto de estados clásicos de X.\mathsf{X}.

En general, debe entenderse que habrá diferentes formas de escribir una matriz de densidad como combinación convexa de estados puros, no solo las que proporciona el teorema espectral. Un ejemplo anterior lo ilustra.

1200+12++=(34141414)\frac{1}{2} \vert 0\rangle\langle 0 \vert + \frac{1}{2} \vert +\rangle\langle + \vert = \begin{pmatrix} \frac{3}{4} & \frac{1}{4}\\[2mm] \frac{1}{4} & \frac{1}{4} \end{pmatrix}

Esta no es una descomposición espectral de esta matriz, porque 0\vert 0\rangle y +\vert + \rangle no son ortogonales. Aquí hay una descomposición espectral:

(34141414)=cos2(π/8)ψπ/8ψπ/8+sin2(π/8)ψ5π/8ψ5π/8,\begin{pmatrix} \frac{3}{4} & \frac{1}{4}\\[2mm] \frac{1}{4} & \frac{1}{4} \end{pmatrix} = \cos^2(\pi/8) \vert \psi_{\pi/8} \rangle \langle \psi_{\pi/8}\vert + \sin^2(\pi/8) \vert \psi_{5\pi/8} \rangle \langle \psi_{5\pi/8}\vert,

donde ψθ=cos(θ)0+sin(θ)1.\vert \psi_{\theta} \rangle = \cos(\theta)\vert 0\rangle + \sin(\theta)\vert 1\rangle. Los valores propios son números que deberían resultar familiares:

cos2(π/8)=2+240,85ysin2(π/8)=2240,15.\cos^2(\pi/8) = \frac{2+\sqrt{2}}{4} \approx 0{,}85 \quad\text{y}\quad \sin^2(\pi/8) = \frac{2-\sqrt{2}}{4} \approx 0{,}15.

Los vectores propios pueden escribirse explícitamente de la siguiente manera.

ψπ/8=2+220+2221ψ5π/8=2220+2+221\begin{aligned} \vert\psi_{\pi/8}\rangle & = \frac{\sqrt{2 + \sqrt{2}}}{2}\vert 0\rangle + \frac{\sqrt{2 - \sqrt{2}}}{2}\vert 1\rangle \\[3mm] \vert\psi_{5\pi/8}\rangle & = -\frac{\sqrt{2 - \sqrt{2}}}{2}\vert 0\rangle + \frac{\sqrt{2 + \sqrt{2}}}{2}\vert 1\rangle \end{aligned}

Como otro ejemplo más general: supongamos que ϕ0,,ϕ99\vert \phi_0\rangle,\ldots,\vert \phi_{99} \rangle son vectores de estado cuántico que representan estados de un solo qubit, elegidos arbitrariamente — por lo que no asumimos relaciones particulares entre estos vectores. Podríamos entonces considerar el estado que obtenemos al seleccionar uniformemente al azar uno de estos 100100 estados:

ρ=1100k=099ϕkϕk.\rho = \frac{1}{100} \sum_{k = 0}^{99} \vert \phi_k\rangle\langle \phi_k \vert.

Como estamos hablando de un qubit, la matriz de densidad ρ\rho es una matriz 2×2,2\times 2, por lo que alternativamente podríamos escribirla por el teorema espectral como

ρ=pψ0ψ0+(1p)ψ1ψ1\rho = p \vert\psi_0\rangle\langle\psi_0\vert + (1 - p) \vert\psi_1\rangle\langle\psi_1\vert

para un número real p[0,1]p\in[0,1] y una base ortonormal {ψ0,ψ1}\{\vert\psi_0\rangle,\vert\psi_1\rangle\} — pero la existencia de esta expresión no nos impide, por supuesto, escribir ρ\rho como promedio de 100 estados puros si así lo deseamos.