Saltar al contenido principal

Equivalencia de las representaciones

Ya hemos visto tres formas distintas de representar canales en términos matemáticos: las representaciones de Stinespring, las representaciones de Kraus y las representaciones de Choi. También tenemos la definición de canal, que establece que un canal es una aplicación lineal que siempre transforma matrices de densidad en matrices de densidad, incluso cuando el canal se aplica solo a una parte de un sistema compuesto. El resto de la lección está dedicado a la demostración matemática de que las tres representaciones son equivalentes y capturan con precisión la definición.

Panorama general de la demostración

Nuestro objetivo es establecer la equivalencia de un conjunto de cuatro enunciados, y comenzaremos escribiéndolos con precisión. Los cuatro enunciados siguen las mismas convenciones que se han usado a lo largo de la lección: Φ\Phi es una aplicación lineal de matrices cuadradas a matrices cuadradas, las filas y columnas de las matrices de entrada se han puesto en correspondencia con los estados clásicos de un sistema X\mathsf{X} (el sistema de entrada), y las filas y columnas de las matrices de salida se han puesto en correspondencia con los estados clásicos de un sistema Y\mathsf{Y} (el sistema de salida).

  1. Φ\Phi es un canal de X\mathsf{X} a Y.\mathsf{Y}. Es decir, Φ\Phi siempre transforma matrices de densidad en matrices de densidad, incluso cuando actúa sobre una parte de un sistema compuesto mayor.

  2. La matriz de Choi J(Φ)J(\Phi) es semidefinida positiva y satisface la condición TrY(J(Φ))=IX.\operatorname{Tr}_{\mathsf{Y}}(J(\Phi)) = \mathbb{I}_{\mathsf{X}}.

  3. Existe una representación de Kraus para Φ.\Phi. Es decir, existen matrices A0,,AN1A_0,\ldots,A_{N-1} para las cuales la ecuación Φ(ρ)=k=0N1AkρAk\Phi(\rho) = \sum_{k = 0}^{N-1} A_k \rho A_k^{\dagger} es verdadera para toda entrada ρ,\rho, y que satisfacen la condición k=0N1AkAk=IX.\sum_{k = 0}^{N-1} A_k^{\dagger} A_k = \mathbb{I}_{\mathsf{X}}.

  4. Existe una representación de Stinespring para Φ.\Phi. Es decir, existen sistemas W\mathsf{W} y G\mathsf{G} para los cuales los pares (W,X)(\mathsf{W},\mathsf{X}) y (G,Y)(\mathsf{G},\mathsf{Y}) tienen el mismo número de estados clásicos, junto con una matriz unitaria UU que representa una operación unitaria de (W,X)(\mathsf{W},\mathsf{X}) a (G,Y),(\mathsf{G},\mathsf{Y}), tal que Φ(ρ)=TrG(U(00ρ)U).\Phi(\rho) = \operatorname{Tr}_{\mathsf{G}}\bigl( U (\vert 0\rangle\langle 0 \vert \otimes \rho) U^{\dagger} \bigr).

La forma en que funciona la demostración es probando un ciclo de implicaciones: el primer enunciado de nuestra lista implica el segundo, el segundo implica el tercero, el tercero implica el cuarto, y el cuarto enunciado implica el primero. Esto establece que los cuatro enunciados son equivalentes —es decir, que son todos verdaderos o todos falsos para una elección dada de Φ\Phi— porque las implicaciones se pueden seguir de forma transitiva desde cualquier enunciado hasta cualquier otro.

Esta es una estrategia habitual cuando se demuestra que un conjunto de enunciados son equivalentes, y un truco útil en este contexto es organizar las implicaciones de manera que sean lo más fáciles de demostrar posible. Ese es el caso aquí —y de hecho ya hemos visto dos de las cuatro implicaciones.

De canales a matrices de Choi

Refiriéndonos a los enunciados listados anteriormente por sus números, la primera implicación a demostrar es 1 \Rightarrow 2. Esta implicación ya se discutió en el contexto del estado de Choi de un canal. Aquí resumiremos los detalles matemáticos.

Supongamos que el conjunto de estados clásicos del sistema de entrada X\mathsf{X} es Σ\Sigma y sea n=Σ.n = \vert\Sigma\vert. Consideremos la situación en la que Φ\Phi se aplica al segundo de dos copias de X\mathsf{X} juntas en el estado

ψ=1naΣaa,\vert \psi \rangle = \frac{1}{\sqrt{n}} \sum_{a \in \Sigma} \vert a \rangle \otimes \vert a \rangle,

que, como matriz de densidad, viene dado por

ψψ=1na,bΣabab.\vert \psi \rangle \langle \psi \vert = \frac{1}{n} \sum_{a,b \in \Sigma} \vert a\rangle\langle b \vert \otimes \vert a\rangle\langle b \vert.

El resultado se puede escribir como

(IdΦ)(ψψ)=1na,b=0n1abΦ(ab)=J(Φ)n,(\operatorname{Id}\otimes \,\Phi) \bigl(\vert \psi \rangle \langle \psi \vert\bigr) = \frac{1}{n} \sum_{a,b = 0}^{n-1} \vert a\rangle\langle b \vert \otimes \Phi\bigl(\vert a\rangle\langle b \vert\bigr) = \frac{J(\Phi)}{n},

y por la suposición de que Φ\Phi es un canal, esto debe ser una matriz de densidad. Como toda matriz de densidad, debe ser semidefinida positiva, y multiplicar una matriz semidefinida positiva por un número real positivo da otra matriz semidefinida positiva, por lo tanto J(Φ)0.J(\Phi) \geq 0.

Además, bajo la suposición de que Φ\Phi es un canal, debe preservar la traza, y por lo tanto

TrY(J(Φ))=a,bΣTr(Φ(ab))ab=a,bΣTr(ab)ab=aΣaa=IX.\begin{aligned} \operatorname{Tr}_{\mathsf{Y}} (J(\Phi)) & = \sum_{a,b\in\Sigma} \operatorname{Tr}\bigl(\Phi( \vert a\rangle\langle b \vert)\bigr) \, \vert a\rangle\langle b \vert\\ & = \sum_{a,b\in\Sigma} \operatorname{Tr}\bigl(\vert a\rangle\langle b \vert\bigr) \, \vert a\rangle\langle b \vert\\ & = \sum_{a\in\Sigma} \vert a\rangle\langle a \vert\\ & = \mathbb{I}_{\mathsf{X}}. \end{aligned}

De la representación de Choi a la de Kraus

La segunda implicación, refiriéndonos nuevamente a los enunciados de nuestra lista por sus números, es 2 \Rightarrow 3. Para ser precisos, ignoramos los demás enunciados —y en particular no podemos asumir que Φ\Phi es un canal. Todo lo que tenemos para trabajar es que Φ\Phi es una aplicación lineal cuya representación de Choi satisface J(Φ)0J(\Phi) \geq 0 y TrY(J(Φ))=IX.\operatorname{Tr}_{\mathsf{Y}} (J(\Phi)) = \mathbb{I}_{\mathsf{X}}.

Sin embargo, esto es todo lo que necesitamos para concluir que Φ\Phi tiene una representación de Kraus

Φ(ρ)=k=0N1AkρAk\Phi(\rho) = \sum_{k = 0}^{N-1} A_k \rho A_k^{\dagger}

para la cual se satisface la condición

k=0N1AkAk=IX\sum_{k = 0}^{N-1} A_k^{\dagger} A_k = \mathbb{I}_{\mathsf{X}}

Comenzamos con la suposición de importancia crítica de que J(Φ)J(\Phi) es semidefinida positiva, lo que significa que es posible expresarla en la forma

J(Φ)=k=0N1ψkψk(1)J(\Phi) = \sum_{k = 0}^{N-1} \vert \psi_k \rangle \langle \psi_k \vert \tag{1}

para alguna elección de los vectores ψ0,,ψN1.\vert\psi_0\rangle,\ldots,\vert\psi_{N-1}\rangle. En general habrá múltiples formas de hacer esto —y de hecho esto refleja directamente la libertad que se tiene al elegir una representación de Kraus para Φ.\Phi.

Una manera de obtener dicha expresión es usar primero el teorema espectral para escribir

J(Φ)=k=0N1λkγkγk,J(\Phi) = \sum_{k = 0}^{N-1} \lambda_k \vert \gamma_k \rangle \langle \gamma_k \vert,

donde λ0,,λN1\lambda_0,\ldots,\lambda_{N-1} son los valores propios de J(Φ)J(\Phi) (que son necesariamente números reales no negativos porque J(Φ)J(\Phi) es semidefinida positiva) y γ0,,γN1\vert\gamma_0\rangle,\ldots,\vert\gamma_{N-1}\rangle son vectores propios unitarios correspondientes a los valores propios λ0,,λN1.\lambda_0,\ldots,\lambda_{N-1}.

Observa que, aunque no hay libertad al elegir los valores propios (excepto en cómo se ordenan), sí hay libertad en la elección de los vectores propios, especialmente cuando hay valores propios con multiplicidad mayor que uno. Por lo tanto, esta no es una expresión única de J(Φ)J(\Phi) —simplemente asumimos que tenemos una de esas expresiones. De todas formas, como los valores propios son números reales no negativos, tienen raíces cuadradas no negativas, por lo que podemos seleccionar

ψk=λkγk\vert\psi_k\rangle = \sqrt{\lambda_k} \vert \gamma_k\rangle

para cada k=0,,N1k = 0,\ldots,N-1 y obtener una expresión de la forma (1).(1).

Sin embargo, no es esencial que la expresión (1)(1) provenga de una descomposición espectral de esta manera, y en particular los vectores ψ0,,ψN1\vert\psi_0\rangle,\ldots,\vert\psi_{N-1}\rangle no tienen por qué ser ortogonales en general. Vale la pena señalar, no obstante, que podemos elegir estos vectores de forma que sean ortogonales si así lo deseamos —y además nunca necesitamos que NN sea mayor que nmnm (recordando que nn y mm denotan los números de estados clásicos de X\mathsf{X} e Y,\mathsf{Y}, respectivamente).

A continuación, cada uno de los vectores ψ0,,ψN1\vert\psi_0\rangle,\ldots,\vert\psi_{N-1}\rangle se puede descomponer adicionalmente como

ψk=aΣaϕk,a,\vert\psi_k\rangle = \sum_{a\in\Sigma} \vert a\rangle \otimes \vert \phi_{k,a}\rangle,

donde los vectores {ϕk,a}\{ \vert \phi_{k,a}\rangle \} tienen entradas correspondientes a los estados clásicos de Y\mathsf{Y} y pueden determinarse explícitamente mediante la ecuación

ϕk,a=(aIY)ψk\vert \phi_{k,a}\rangle = \bigl( \langle a \vert \otimes \mathbb{I}_{\mathsf{Y}}\bigr) \vert \psi_k\rangle

para cada aΣa\in\Sigma y k=0,,N1.k=0,\ldots,N-1. Aunque ψ0,,ψN1\vert\psi_0\rangle,\ldots,\vert\psi_{N-1}\rangle no son necesariamente vectores unitarios, este es el mismo proceso que usaríamos para analizar qué ocurriría si se realizara una medición en la base estándar sobre el sistema X\mathsf{X} dado un vector de estado cuántico del par (X,Y).(\mathsf{X},\mathsf{Y}).

Y ahora llegamos al truco que hace funcionar esta parte de la demostración. Definimos nuestras matrices de Kraus A0,,AN1A_0,\ldots,A_{N-1} según la siguiente ecuación.

Ak=aΣϕk,aaA_k = \sum_{a\in\Sigma} \vert \phi_{k,a}\rangle\langle a \vert

Podemos pensar en esta fórmula de forma puramente simbólica: a\vert a\rangle se "gira" para formar a\langle a\vert y se mueve al lado derecho, formando una matriz. Para los propósitos de verificar la demostración, la fórmula es todo lo que necesitamos.

Sin embargo, hay una relación simple e intuitiva entre el vector ψk\vert\psi_k\rangle y la matriz Ak,A_k, que es que vectorizando AkA_k obtenemos ψk.\vert\psi_k\rangle. Lo que significa vectorizar AkA_k es que apilamos las columnas una sobre otra (con la columna más a la izquierda en la parte superior y la más a la derecha en la parte inferior) para formar un vector. Por ejemplo, si X\mathsf{X} e Y\mathsf{Y} son ambos qubits, y para alguna elección de kk tenemos

ψk=α0000+α0101+α1010+α1111=(α00α01α10α11),\begin{aligned} \vert\psi_k\rangle & = \alpha_{00} \vert 0\rangle \otimes \vert 0\rangle + \alpha_{01} \vert 0\rangle \otimes \vert 1\rangle + \alpha_{10} \vert 1\rangle \otimes \vert 0\rangle + \alpha_{11} \vert 1\rangle \otimes \vert 1\rangle\\[2mm] & = \begin{pmatrix} \alpha_{00} \\[1mm] \alpha_{01} \\[1mm] \alpha_{10} \\[1mm] \alpha_{11} \end{pmatrix}, \end{aligned}

entonces

Ak=α0000+α0110+α1001+α1111=(α00α10α01α11).\begin{aligned} A_k & = \alpha_{00} \vert 0\rangle\langle 0\vert + \alpha_{01} \vert 1\rangle\langle 0\vert + \alpha_{10} \vert 0\rangle\langle 1\vert + \alpha_{11} \vert 1\rangle\langle 1\vert\\[2mm] & = \begin{pmatrix} \alpha_{00} & \alpha_{10}\\[1mm] \alpha_{01} & \alpha_{11} \end{pmatrix}. \end{aligned}

(Atención: a veces la vectorización de una matriz se define de una manera ligeramente diferente, en la que las filas de la matriz se transponen y se apilan una sobre otra para formar un vector columna.)

Primero verificaremos que esta elección de matrices de Kraus describe correctamente la aplicación Φ,\Phi, y después verificaremos la otra condición requerida. Para no perder el hilo, definamos una nueva aplicación Ψ\Psi de la siguiente manera.

Ψ(ρ)=k=0N1AkρAk\Psi(\rho) = \sum_{k = 0}^{N-1} A_k \rho A_k^{\dagger}

Así, nuestro objetivo es verificar que Ψ=Φ.\Psi = \Phi.

La forma de hacerlo es comparar las representaciones de Choi de estas aplicaciones. Las representaciones de Choi son fieles, de modo que Ψ=Φ\Psi = \Phi si y solo si J(Φ)=J(Ψ).J(\Phi) = J(\Psi). En este punto podemos simplemente calcular J(Ψ)J(\Psi) usando las expresiones

ψk=aΣaϕk,ayAk=aΣϕk,aa\vert\psi_k\rangle = \sum_{a\in\Sigma} \vert a\rangle \otimes \vert \phi_{k,a}\rangle \quad\text{y}\quad A_k = \sum_{a\in\Sigma} \vert \phi_{k,a}\rangle\langle a \vert

junto con la bilinealidad del producto tensorial para simplificar.

J(Ψ)=a,bΣabk=0N1AkabAk=a,bΣabk=0N1ϕk,aϕk,b=k=0N1(aΣaϕk,a)(bΣbϕk,b)=k=0N1ψkψk=J(Φ)\begin{aligned} J(\Psi) & = \sum_{a,b\in\Sigma} \vert a\rangle \langle b \vert \otimes \sum_{k = 0}^{N-1} A_k \vert a\rangle \langle b \vert A_k^{\dagger}\\[2mm] & = \sum_{a,b\in\Sigma} \vert a\rangle \langle b \vert \otimes \sum_{k = 0}^{N-1} \vert \phi_{k,a} \rangle \langle \phi_{k,b} \vert \\[2mm] & = \sum_{k = 0}^{N-1} \biggl(\sum_{a\in\Sigma} \vert a\rangle \otimes \vert \phi_{k,a} \rangle\biggr) \biggl(\sum_{b\in\Sigma} \langle b\vert \otimes \langle \phi_{k,b} \vert\biggr)\\[2mm] & = \sum_{k = 0}^{N-1} \vert \psi_k \rangle \langle \psi_k \vert \\[2mm] & = J(\Phi) \end{aligned}

Por lo tanto, nuestras matrices de Kraus describen correctamente Φ.\Phi.

Queda verificar la condición requerida sobre A0,,AN1,A_0,\ldots,A_{N-1}, que resulta ser equivalente a la suposición TrY(J(Φ))=IX\operatorname{Tr}_{\mathsf{Y}}(J(\Phi)) = \mathbb{I}_{\mathsf{X}} (que aún no hemos usado). Lo que demostraremos es esta relación:

(k=0N1AkAk)T=TrY(J(Φ))(2)\Biggl( \sum_{k = 0}^{N-1} A_k^{\dagger} A_k \Biggr)^{T} = \operatorname{Tr}_{\mathsf{Y}}(J(\Phi)) \tag{2}

(donde nos referimos a la transpuesta matricial en el lado izquierdo).

Comenzando por la izquierda, podemos observar primero que

(k=0N1AkAk)T=(k=0N1a,bΣbϕk,bϕk,aa)T=k=0N1a,bΣϕk,bϕk,aab.\begin{aligned} \Biggl(\sum_{k = 0}^{N-1} A_k^{\dagger} A_k\Biggr)^T & = \Biggl(\sum_{k = 0}^{N-1} \sum_{a,b\in\Sigma} \vert b \rangle \langle \phi_{k,b} \vert \phi_{k,a} \rangle \langle a \vert\Biggr)^T\\ & = \sum_{k = 0}^{N-1} \sum_{a,b\in\Sigma} \langle \phi_{k,b} \vert \phi_{k,a} \rangle \vert a \rangle \langle b \vert. \end{aligned}

La última igualdad se sigue del hecho de que la transpuesta es lineal y aplica ba\vert b\rangle\langle a \vert a ab.\vert a\rangle\langle b \vert.

Pasando al lado derecho de nuestra ecuación, tenemos

J(Φ)=k=0N1ψkψk=k=0N1a,bΣabϕk,aϕk,bJ(\Phi) = \sum_{k = 0}^{N-1} \vert \psi_k\rangle\langle\psi_k \vert = \sum_{k = 0}^{N-1} \sum_{a,b\in\Sigma} \vert a\rangle \langle b \vert \otimes \vert\phi_{k,a}\rangle\langle \phi_{k,b} \vert

y por lo tanto

TrY(J(Φ))=k=0N1a,bΣTr(ϕk,aϕk,b)ab=k=0N1a,bΣϕk,bϕk,aab.\begin{aligned} \operatorname{Tr}_{\mathsf{Y}}(J(\Phi)) & = \sum_{k = 0}^{N-1} \sum_{a,b\in\Sigma} \operatorname{Tr}\bigl(\vert\phi_{k,a}\rangle\langle \phi_{k,b} \vert \bigr)\, \vert a\rangle \langle b \vert\\ & = \sum_{k = 0}^{N-1} \sum_{a,b\in\Sigma} \langle \phi_{k,b} \vert \phi_{k,a} \rangle \vert a \rangle \langle b \vert. \end{aligned}

Hemos obtenido el mismo resultado, por lo que la ecuación (2)(2) ha sido verificada. Se sigue entonces, por la suposición TrY(J(Φ))=IX,\operatorname{Tr}_{\mathsf{Y}} (J(\Phi)) = \mathbb{I}_{\mathsf{X}}, que

(k=0N1AkAk)T=IX\Biggl(\sum_{k = 0}^{N-1} A_k^{\dagger} A_k\Biggr)^T = \mathbb{I}_{\mathsf{X}}

y por lo tanto, dado que la matriz identidad es su propia transpuesta, la condición requerida es verdadera.

k=0N1AkAk=IX\sum_{k = 0}^{N-1} A_k^{\dagger} A_k = \mathbb{I}_{\mathsf{X}}

De representaciones de Kraus a representaciones de Stinespring

Supongamos ahora que tenemos una representación de Kraus de un mapeo

Φ(ρ)=k=0N1AkρAk\Phi(\rho) = \sum_{k = 0}^{N-1} A_k \rho A_k^{\dagger}

para el cual se cumple

k=0N1AkAk=IX.\sum_{k = 0}^{N-1} A_k^{\dagger} A_k = \mathbb{I}_{\mathsf{X}}.

Nuestro objetivo es encontrar una representación de Stinespring para Φ.\Phi.

Lo que queremos hacer primero es elegir el sistema basura G\mathsf{G} de modo que su conjunto de estados clásicos sea {0,,N1}.\{0,\ldots,N-1\}. Sin embargo, para que (W,X)(\mathsf{W},\mathsf{X}) y (G,Y)(\mathsf{G},\mathsf{Y}) tengan el mismo tamaño, es necesario que nn divida a mN,m N, lo que nos permite tomar W\mathsf{W} con estados clásicos {0,,d1}\{0,\ldots,d-1\} para d=mN/n.d = mN/n.

Para una elección arbitraria de n,n, mm y N,N, puede darse que mN/nmN/n no sea un entero, así que en realidad no tenemos libertad para elegir G\mathsf{G} de manera que su conjunto de estados clásicos sea {0,,N1}.\{0,\ldots,N-1\}. Pero siempre podemos aumentar NN arbitrariamente en la representación de Kraus eligiendo Ak=0A_k = 0 para tantos valores adicionales de kk como deseemos.

Entonces, si suponemos tácitamente que mN/nmN/n es un entero, lo cual equivale a que NN sea múltiplo de m/gcd(n,m),m/\operatorname{gcd}(n,m), podemos elegir G\mathsf{G} de modo que su conjunto de estados clásicos sea {0,,N1}.\{0,\ldots,N-1\}. En particular, si N=nm,N = nm, entonces podemos tomar W\mathsf{W} con m2m^2 estados clásicos.

Queda elegir U,U, y lo haremos siguiendo el siguiente patrón.

U=(A0??A1??AN1??)U = \begin{pmatrix} A_{0} & \fbox{?} & \cdots & \fbox{?} \\[1mm] A_{1} & \fbox{?} & \cdots & \fbox{?} \\[1mm] \vdots & \vdots & \ddots & \vdots\\[1mm] A_{N-1} & \fbox{?} & \cdots & \fbox{?} \end{pmatrix}

Para ser preciso, este patrón representa una matriz en bloques, donde cada bloque (incluyendo A0,,AN1A_{0},\ldots,A_{N-1} así como los bloques marcados con signo de interrogación) tiene mm filas y nn columnas. Hay NN filas de bloques, lo que implica que hay d=mN/nd = mN/n columnas de bloques.

Expresado de forma más formulaica, definiremos UU como

U=k=0N1j=0d1kjMk,j=(M0,0M0,1M0,d1M1,0M1,1M1,d1MN1,0MN1,1MN1,d1)\begin{aligned} U & = \sum_{k=0}^{N-1} \sum_{j=0}^{d-1} \vert k \rangle \langle j \vert \otimes M_{k,j} \\[4mm] & = \begin{pmatrix} M_{0,0} & M_{0,1} & \cdots & M_{0,d-1} \\[1mm] M_{1,0} & M_{1,1} & \cdots & M_{1,d-1} \\[1mm] \vdots & \vdots & \ddots & \vdots\\[1mm] M_{N-1,0} & M_{N-1,1} & \cdots & M_{N-1,d-1} \end{pmatrix} \end{aligned}

donde cada matriz Mk,jM_{k,j} tiene mm filas y nn columnas, y en particular tomaremos Mk,0=AkM_{k,0} = A_k para k=0,,N1.k = 0,\ldots,N-1.

Esta debe ser una matriz unitaria, y los bloques marcados con signo de interrogación, equivalentemente Mk,jM_{k,j} para j>0,j>0, deben elegirse con eso en mente — pero más allá de permitir que UU sea unitaria, dichos bloques no tendrán ninguna relevancia en la prueba.

Dejemos de lado momentáneamente la preocupación de que UU sea unitaria y concentrémonos en la expresión

TrG(U(00Wρ)U)\operatorname{Tr}_{\mathsf{G}} \bigl( U (\vert 0\rangle \langle 0 \vert_{\mathsf{W}} \otimes \rho)U^{\dagger}\bigr)

que describe el estado de salida de Y\mathsf{Y} dado el estado de entrada ρ\rho de X\mathsf{X} para nuestra representación de Stinespring. Podemos escribir alternativamente

U(00ρ)U=U(0IW)ρ(0IW)U,U(\vert 0\rangle\langle 0 \vert \otimes \rho)U^{\dagger} = U(\vert 0\rangle\otimes\mathbb{I}_{\mathsf{W}}) \rho (\langle 0\vert \otimes \mathbb{I}_{\mathsf{W}}) U^{\dagger},

y vemos a partir de nuestra elección de UU que

U(0IW)=k=0N1kAk.U(\vert 0\rangle\otimes\mathbb{I}_{\mathsf{W}}) = \sum_{k = 0}^{N-1} \vert k\rangle \otimes A_k.

Por lo tanto obtenemos que

U(00ρ)U=j,k=0N1kjAkρAj,U(\vert 0\rangle\langle 0 \vert \otimes \rho)U^{\dagger} = \sum_{j,k = 0}^{N-1} \vert k\rangle\langle j\vert \otimes A_k \rho A_j^{\dagger},

y por lo tanto

TrG(U(00Wρ)U)=j,k=0N1Tr(kj)AkρAj=k=0N1AkρAk=Φ(ρ).\begin{aligned} \operatorname{Tr}_{\mathsf{G}} \bigl( U (\vert 0\rangle \langle 0 \vert_{\mathsf{W}} \otimes \rho) U^{\dagger}\bigr) & = \sum_{j,k = 0}^{N-1} \operatorname{Tr}\bigl(\vert k\rangle\langle j\vert\bigr) \, A_k \rho A_j^{\dagger} \\ & = \sum_{k = 0}^{N-1} A_k \rho A_k^{\dagger} \\ & = \Phi(\rho). \end{aligned}

Así tenemos una representación correcta para el mapeo Φ,\Phi, y queda verificar que podemos elegir UU de modo que sea unitaria.

Consideremos las primeras nn columnas de UU cuando se elige según el patrón anterior. Tomando solo esas columnas, obtenemos la matriz en bloques

(A0A1AN1).\begin{pmatrix} A_0\\[1mm] A_1\\[1mm] \vdots\\[1mm] A_{N-1} \end{pmatrix}.

Hay nn columnas, una por cada estado clásico de X,\mathsf{X}, y como vectores las nombraremos γa\vert \gamma_a \rangle para cada aΣ.a\in\Sigma. A continuación se muestra una fórmula para estos vectores que puede relacionarse con la representación en bloques anterior.

γa=k=0N1kAka\vert \gamma_a\rangle = \sum_{k = 0}^{N-1} \vert k\rangle \otimes A_k \vert a \rangle

Calculemos ahora el producto interno entre dos cualesquiera de estos vectores, es decir, los correspondientes a una elección arbitraria de a,bΣ.a,b\in\Sigma.

γaγb=j,k=0N1kjaAkAjb=a(k=0N1AkAk)b\langle \gamma_a \vert \gamma_b \rangle = \sum_{j,k = 0}^{N-1} \langle k \vert j \rangle \, \langle a \vert A_k^{\dagger} A_j \vert b\rangle = \langle a \vert \Biggl( \sum_{k = 0}^{N-1} A_k^{\dagger} A_k \Biggr) \vert b\rangle

Por la suposición

k=0m1AkAk=IX\sum_{k = 0}^{m-1} A_k^{\dagger} A_k = \mathbb{I}_{\mathsf{X}}

concluimos que los nn vectores columna {γa:aΣ}\{\vert\gamma_a\rangle\,:\,a\in\Sigma\} forman un conjunto ortonormal:

γaγb={1a=b0ab\langle \gamma_a \vert \gamma_b \rangle = \begin{cases} 1 & a = b\\ 0 & a\neq b \end{cases}

para todo a,bΣ.a,b\in\Sigma.

Esto implica que es posible completar las columnas restantes de UU de modo que se convierta en una matriz unitaria. En particular, se puede utilizar el proceso de ortogonalización de Gram-Schmidt para seleccionar las columnas restantes. Algo similar se hizo en la lección de Circuitos cuánticos de "Fundamentos de información cuántica" en el contexto del problema de discriminación de estados.

De representaciones de Stinespring de vuelta a la definición

La implicación final es 4 \Rightarrow 1. Es decir, suponemos que tenemos una operación unitaria que transforma un par de sistemas (W,X)(\mathsf{W},\mathsf{X}) en un par (G,Y),(\mathsf{G},\mathsf{Y}), y nuestro objetivo es concluir que el mapeo

Φ(ρ)=TrG(U(00Wρ)U)\Phi(\rho) = \operatorname{Tr}_{\mathsf{G}} \bigl( U (\vert 0\rangle \langle 0 \vert_{\mathsf{W}} \otimes \rho)U^{\dagger}\bigr)

es un canal válido. Por su forma, es evidente que Φ\Phi es lineal, y queda verificar que siempre transforma matrices de densidad en matrices de densidad. Esto es bastante directo y ya hemos discutido los puntos clave.

En particular, si comenzamos con una matriz de densidad σ\sigma de un sistema compuesto (Z,X),(\mathsf{Z},\mathsf{X}), y luego añadimos un sistema de espacio de trabajo adicional W,\mathsf{W}, ciertamente obtendremos una matriz de densidad. Si reordenamos los sistemas (W,Z,X)(\mathsf{W},\mathsf{Z},\mathsf{X}) por conveniencia, podemos escribir este estado como

00Wσ.\vert 0\rangle\langle 0\vert_{\mathsf{W}} \otimes \sigma.

Luego aplicamos la operación unitaria U,U, y como ya discutimos, esta es un canal válido y por lo tanto mapea matrices de densidad en matrices de densidad. Finalmente, la traza parcial de una matriz de densidad es otra matriz de densidad.

Otra forma de expresar esto es observar primero que cada una de las siguientes cosas es un canal válido:

  1. Introducir un sistema de espacio de trabajo inicializado.
  2. Realizar una operación unitaria.
  3. Trazar un sistema.

Y finalmente, cualquier composición de canales es otro canal — lo cual se desprende inmediatamente de la definición, pero es también un hecho que vale la pena observar por sí mismo.

Esto completa la prueba de la implicación final, y con ello hemos establecido la equivalencia de los cuatro enunciados listados al comienzo de la sección.