Saltar al contenido principal

Productos internos y proyecciones

Para prepararnos mejor y explorar las capacidades y limitaciones de los circuitos cuánticos, introducimos ahora algunos conceptos matemáticos adicionales: concretamente el producto interno entre vectores (y su conexión con la norma euclidiana), las nociones de ortogonalidad y ortonormalidad para conjuntos de vectores, y las matrices de proyección, que nos permitirán introducir una práctica generalización de las mediciones en base estándar.

Productos internos

Recuerda que cuando usamos la notación de Dirac para referirnos a un vector columna arbitrario como un ket, tal como

ψ=(α1α2αn),\vert \psi \rangle = \begin{pmatrix} \alpha_1\\ \alpha_2\\ \vdots\\ \alpha_n \end{pmatrix},

el vector bra correspondiente es la transpuesta conjugada de ese vector:

ψ=(ψ)=(α1α2αn).(1)\langle \psi \vert = \bigl(\vert \psi \rangle \bigr)^{\dagger} = \begin{pmatrix} \overline{\alpha_1} & \overline{\alpha_2} & \cdots & \overline{\alpha_n} \end{pmatrix}. \tag{1}

Alternativamente, si tenemos en mente algún conjunto de estados clásicos Σ\Sigma y expresamos un vector columna como un ket, tal como

ψ=aΣαaa,\vert \psi \rangle = \sum_{a\in\Sigma} \alpha_a \vert a \rangle,

entonces el vector fila (o bra) correspondiente es la transpuesta conjugada

ψ=aΣαaa.(2)\langle \psi \vert = \sum_{a\in\Sigma} \overline{\alpha_a} \langle a \vert. \tag{2}

También tenemos que el producto de un vector bra por un vector ket, vistos como matrices con una sola fila o una sola columna respectivamente, da como resultado un escalar. Concretamente, si tenemos dos vectores columna

ψ=(α1α2αn)yϕ=(β1β2βn),\vert \psi \rangle = \begin{pmatrix} \alpha_1\\ \alpha_2\\ \vdots\\ \alpha_n \end{pmatrix} \quad\text{y}\quad \vert \phi \rangle = \begin{pmatrix} \beta_1\\ \beta_2\\ \vdots\\ \beta_n \end{pmatrix},

de manera que el vector fila ψ\langle \psi \vert es como en la ecuación (1),(1), entonces

ψϕ=ψϕ=(α1α2αn)(β1β2βn)=α1β1++αnβn.\langle \psi \vert \phi \rangle = \langle \psi \vert \vert \phi \rangle = \begin{pmatrix} \overline{\alpha_1} & \overline{\alpha_2} & \cdots & \overline{\alpha_n} \end{pmatrix} \begin{pmatrix} \beta_1\\ \beta_2\\ \vdots\\ \beta_n \end{pmatrix} = \overline{\alpha_1} \beta_1 + \cdots + \overline{\alpha_n}\beta_n.

Alternativamente, si tenemos dos vectores columna escritos como

ψ=aΣαaayϕ=bΣβbb,\vert \psi \rangle = \sum_{a\in\Sigma} \alpha_a \vert a \rangle \quad\text{y}\quad \vert \phi \rangle = \sum_{b\in\Sigma} \beta_b \vert b \rangle,

de modo que ψ\langle \psi \vert es el vector fila (2),(2), encontramos que

ψϕ=ψϕ=(aΣαaa)(bΣβbb)=aΣbΣαaβbab=aΣαaβa,\begin{aligned} \langle \psi \vert \phi \rangle & = \langle \psi \vert \vert \phi \rangle\\ & = \Biggl(\sum_{a\in\Sigma} \overline{\alpha_a} \langle a \vert\Biggr) \Biggl(\sum_{b\in\Sigma} \beta_b \vert b\rangle\Biggr)\\ & = \sum_{a\in\Sigma}\sum_{b\in\Sigma} \overline{\alpha_a} \beta_b \langle a \vert b \rangle\\ & = \sum_{a\in\Sigma} \overline{\alpha_a} \beta_a, \end{aligned}

donde la última igualdad se sigue de la observación de que aa=1\langle a \vert a \rangle = 1 y ab=0\langle a \vert b \rangle = 0 para estados clásicos aa y bb que satisfacen ab.a\neq b.

El valor ψϕ\langle \psi \vert \phi \rangle se denomina el producto interno entre los vectores ψ\vert \psi\rangle y ϕ.\vert \phi \rangle. Los productos internos son de una importancia crucial en la información y computación cuántica; no llegaríamos muy lejos en la comprensión matemática de la información cuántica sin ellos.

Reunamos ahora algunos hechos básicos sobre los productos internos de vectores.

  1. Relación con la norma euclidiana. El producto interno de cualquier vector

    ψ=aΣαaa\vert \psi \rangle = \sum_{a\in\Sigma} \alpha_a \vert a \rangle

    consigo mismo es

    ψψ=aΣαaαa=aΣαa2=ψ2.\langle \psi \vert \psi \rangle = \sum_{a\in\Sigma} \overline{\alpha_a} \alpha_a = \sum_{a\in\Sigma} \vert\alpha_a\vert^2 = \bigl\| \vert \psi \rangle \bigr\|^2.

    Así, la norma euclidiana de un vector puede expresarse alternativamente como

    ψ=ψψ.\bigl\| \vert \psi \rangle \bigr\| = \sqrt{ \langle \psi \vert \psi \rangle }.

    Observa que la norma euclidiana de un vector siempre debe ser un número real no negativo. Además, la única manera en que la norma euclidiana de un vector puede ser igual a cero es que todas sus entradas sean iguales a cero, es decir, que el vector sea el vector cero.

    Podemos resumir estas observaciones de la siguiente manera: para todo vector ψ\vert \psi \rangle tenemos

    ψψ0,\langle \psi \vert \psi \rangle \geq 0,

    con ψψ=0\langle \psi \vert \psi \rangle = 0 si y solo si ψ=0.\vert \psi \rangle = 0. Esta propiedad del producto interno se conoce a veces como definición positiva.

  2. Simetría conjugada. Para cualesquiera dos vectores

    ψ=aΣαaayϕ=bΣβbb,\vert \psi \rangle = \sum_{a\in\Sigma} \alpha_a \vert a \rangle \quad\text{y}\quad \vert \phi \rangle = \sum_{b\in\Sigma} \beta_b \vert b \rangle,

    tenemos

    ψϕ=aΣαaβayϕψ=aΣβaαa,\langle \psi \vert \phi \rangle = \sum_{a\in\Sigma} \overline{\alpha_a} \beta_a \quad\text{y}\quad \langle \phi \vert \psi \rangle = \sum_{a\in\Sigma} \overline{\beta_a} \alpha_a,

    y por lo tanto

    ψϕ=ϕψ.\overline{\langle \psi \vert \phi \rangle} = \langle \phi \vert \psi \rangle.
  3. Linealidad en el segundo argumento (y linealidad conjugada en el primero). Supongamos que ψ,\vert \psi \rangle, ϕ1\vert \phi_1 \rangle y ϕ2\vert \phi_2 \rangle son vectores y que α1\alpha_1 y α2\alpha_2 son números complejos. Si definimos un nuevo vector

    ϕ=α1ϕ1+α2ϕ2,\vert \phi\rangle = \alpha_1 \vert \phi_1\rangle + \alpha_2 \vert \phi_2\rangle,

    entonces

    ψϕ=ψ(α1ϕ1+α2ϕ2)=α1ψϕ1+α2ψϕ2.\langle \psi \vert \phi \rangle = \langle \psi \vert \bigl( \alpha_1\vert \phi_1 \rangle + \alpha_2\vert \phi_2 \rangle\bigr) = \alpha_1 \langle \psi \vert \phi_1 \rangle + \alpha_2 \langle \psi \vert \phi_2 \rangle.

    Es decir, el producto interno es lineal en el segundo argumento. Esto puede verificarse tanto a través de las fórmulas anteriores como simplemente notando que la multiplicación de matrices es lineal en cada argumento (y en particular en el segundo).

    Combinar este hecho con la simetría conjugada revela que el producto interno es conjugado lineal en el primer argumento. Es decir, si ψ1,\vert \psi_1 \rangle, ψ2\vert \psi_2 \rangle y ϕ\vert \phi \rangle son vectores y α1\alpha_1 y α2\alpha_2 son números complejos, y definimos

    ψ=α1ψ1+α2ψ2,\vert \psi \rangle = \alpha_1 \vert \psi_1\rangle + \alpha_2 \vert \psi_2 \rangle,

    entonces

    ψϕ=(α1ψ1+α2ψ2)ϕ=α1ψ1ϕ+α2ψ2ϕ.\langle \psi \vert \phi \rangle = \bigl( \overline{\alpha_1} \langle \psi_1 \vert + \overline{\alpha_2} \langle \psi_2 \vert \bigr) \vert\phi\rangle = \overline{\alpha_1} \langle \psi_1 \vert \phi \rangle + \overline{\alpha_2} \langle \psi_2 \vert \phi \rangle.
  4. La desigualdad de Cauchy–Schwarz. Para toda elección de vectores ϕ\vert \phi \rangle y ψ\vert \psi \rangle con el mismo número de entradas, tenemos

    ψϕψϕ.\bigl\vert \langle \psi \vert \phi \rangle\bigr| \leq \bigl\| \vert\psi \rangle \bigr\| \bigl\| \vert \phi \rangle \bigr\|.

    Esta es una desigualdad increíblemente útil que se emplea con mucha frecuencia en información cuántica (y en muchos otros campos de estudio).

Conjuntos ortogonales y ortonormales

Se dice que dos vectores ϕ\vert \phi \rangle y ψ\vert \psi \rangle son ortogonales si su producto interno es cero:

ψϕ=0.\langle \psi \vert \phi \rangle = 0.

Geométricamente, podemos pensar en los vectores ortogonales como vectores que forman ángulos rectos entre sí.

Un conjunto de vectores {ψ1,,ψm}\{ \vert \psi_1\rangle,\ldots,\vert\psi_m\rangle\} se denomina conjunto ortogonal si cada vector del conjunto es ortogonal a todos los demás vectores del conjunto. Es decir, este conjunto es ortogonal si

ψjψk=0\langle \psi_j \vert \psi_k\rangle = 0

para toda elección de j,k{1,,m}j,k\in\{1,\ldots,m\} tal que jk.j\neq k.

Un conjunto de vectores {ψ1,,ψm}\{ \vert \psi_1\rangle,\ldots,\vert\psi_m\rangle\} se denomina ortonormal si es un conjunto ortogonal y, además, cada vector del conjunto es un vector unitario. Alternativamente, este conjunto es ortonormal si se cumple

ψjψk={1j=k0jk(3)\langle \psi_j \vert \psi_k\rangle = \begin{cases} 1 & j = k\\[1mm] 0 & j\neq k \end{cases} \tag{3}

para toda elección de j,k{1,,m}.j,k\in\{1,\ldots,m\}.

Finalmente, un conjunto {ψ1,,ψm}\{ \vert \psi_1\rangle,\ldots,\vert\psi_m\rangle\} es una base ortonormal si, además de ser un conjunto ortonormal, forma una base. Esto equivale a que {ψ1,,ψm}\{ \vert \psi_1\rangle,\ldots,\vert\psi_m\rangle\} sea un conjunto ortonormal y que mm sea igual a la dimensión del espacio del que se toman ψ1,,ψm.\vert \psi_1\rangle,\ldots,\vert\psi_m\rangle.

Por ejemplo, para cualquier conjunto de estados clásicos Σ,\Sigma, el conjunto de todos los vectores de la base estándar

{a:aΣ}\big\{ \vert a \rangle \,:\, a\in\Sigma\bigr\}

es una base ortonormal. El conjunto {+,}\{\vert+\rangle,\vert-\rangle\} es una base ortonormal para el espacio de dimensión 22 correspondiente a un solo qubit, y la base de Bell {ϕ+,ϕ,ψ+,ψ}\{\vert\phi^+\rangle, \vert\phi^-\rangle, \vert\psi^+\rangle, \vert\psi^-\rangle\} es una base ortonormal para el espacio de dimensión 44 correspondiente a dos qubits.

Extensión de conjuntos ortonormales a bases ortonormales

Supongamos que ψ1,,ψm\vert\psi_1\rangle,\ldots,\vert\psi_m\rangle son vectores que viven en un espacio de dimensión nn, y supongamos además que {ψ1,,ψm}\{\vert\psi_1\rangle,\ldots,\vert\psi_m\rangle\} es un conjunto ortonormal. Los conjuntos ortonormales son siempre conjuntos linealmente independientes, por lo que estos vectores generan necesariamente un subespacio de dimensión m.m. De esto concluimos que mnm\leq n, ya que la dimensión del subespacio generado por estos vectores no puede ser mayor que la dimensión del espacio completo del que se toman.

Si se da el caso de que m<n,m<n, siempre es posible elegir nmn-m vectores adicionales ψm+1,,ψn\vert \psi_{m+1}\rangle,\ldots,\vert\psi_n\rangle de modo que {ψ1,,ψn}\{\vert\psi_1\rangle,\ldots,\vert\psi_n\rangle\} forme una base ortonormal. Un procedimiento conocido como el proceso de ortonormalización de Gram–Schmidt puede utilizarse para construir estos vectores.

Conjuntos ortonormales y matrices unitarias

Los conjuntos ortonormales de vectores están estrechamente relacionados con las matrices unitarias. Una forma de expresar esta conexión es decir que las tres afirmaciones siguientes son lógicamente equivalentes (es decir, todas son verdaderas o todas son falsas) para cualquier elección de una matriz cuadrada UU:

  1. La matriz UU es unitaria (es decir, UU=I=UUU^{\dagger} U = \mathbb{I} = U U^{\dagger}).
  2. Las filas de UU forman un conjunto ortonormal.
  3. Las columnas de UU forman un conjunto ortonormal.

Esta equivalencia es bastante directa cuando pensamos en cómo funcionan la multiplicación de matrices y la transpuesta conjugada. Supongamos, por ejemplo, que tenemos una matriz 3×33\times 3 como esta:

U=(α1,1α1,2α1,3α2,1α2,2α2,3α3,1α3,2α3,3)U = \begin{pmatrix} \alpha_{1,1} & \alpha_{1,2} & \alpha_{1,3} \\[1mm] \alpha_{2,1} & \alpha_{2,2} & \alpha_{2,3} \\[1mm] \alpha_{3,1} & \alpha_{3,2} & \alpha_{3,3} \end{pmatrix}

La transpuesta conjugada de UU es:

U=(α1,1α2,1α3,1α1,2α2,2α3,2α1,3α2,3α3,3)U^{\dagger} = \begin{pmatrix} \overline{\alpha_{1,1}} & \overline{\alpha_{2,1}} & \overline{\alpha_{3,1}} \\[1mm] \overline{\alpha_{1,2}} & \overline{\alpha_{2,2}} & \overline{\alpha_{3,2}} \\[1mm] \overline{\alpha_{1,3}} & \overline{\alpha_{2,3}} & \overline{\alpha_{3,3}} \end{pmatrix}

Multiplicar las dos matrices, con la transpuesta conjugada a la izquierda, nos da esta matriz:

(α1,1α2,1α3,1α1,2α2,2α3,2α1,3α2,3α3,3)(α1,1α1,2α1,3α2,1α2,2α2,3α3,1α3,2α3,3)=(α1,1α1,1+α2,1α2,1+α3,1α3,1α1,1α1,2+α2,1α2,2+α3,1α3,2α1,1α1,3+α2,1α2,3+α3,1α3,3α1,2α1,1+α2,2α2,1+α3,2α3,1α1,2α1,2+α2,2α2,2+α3,2α3,2α1,2α1,3+α2,2α2,3+α3,2α3,3α1,3α1,1+α2,3α2,1+α3,3α3,1α1,3α1,2+α2,3α2,2+α3,3α3,2α1,3α1,3+α2,3α2,3+α3,3α3,3)\begin{aligned} &\begin{pmatrix} \overline{\alpha_{1,1}} & \overline{\alpha_{2,1}} & \overline{\alpha_{3,1}} \\[1mm] \overline{\alpha_{1,2}} & \overline{\alpha_{2,2}} & \overline{\alpha_{3,2}} \\[1mm] \overline{\alpha_{1,3}} & \overline{\alpha_{2,3}} & \overline{\alpha_{3,3}} \end{pmatrix} \begin{pmatrix} \alpha_{1,1} & \alpha_{1,2} & \alpha_{1,3} \\[1mm] \alpha_{2,1} & \alpha_{2,2} & \alpha_{2,3} \\[1mm] \alpha_{3,1} & \alpha_{3,2} & \alpha_{3,3} \end{pmatrix}\\[4mm] \quad &= \begin{pmatrix} \overline{\alpha_{1,1}}\alpha_{1,1} + \overline{\alpha_{2,1}}\alpha_{2,1} + \overline{\alpha_{3,1}}\alpha_{3,1} & \overline{\alpha_{1,1}}\alpha_{1,2} + \overline{\alpha_{2,1}}\alpha_{2,2} + \overline{\alpha_{3,1}}\alpha_{3,2} & \overline{\alpha_{1,1}}\alpha_{1,3} + \overline{\alpha_{2,1}}\alpha_{2,3} + \overline{\alpha_{3,1}}\alpha_{3,3} \\[2mm] \overline{\alpha_{1,2}}\alpha_{1,1} + \overline{\alpha_{2,2}}\alpha_{2,1} + \overline{\alpha_{3,2}}\alpha_{3,1} & \overline{\alpha_{1,2}}\alpha_{1,2} + \overline{\alpha_{2,2}}\alpha_{2,2} + \overline{\alpha_{3,2}}\alpha_{3,2} & \overline{\alpha_{1,2}}\alpha_{1,3} + \overline{\alpha_{2,2}}\alpha_{2,3} + \overline{\alpha_{3,2}}\alpha_{3,3} \\[2mm] \overline{\alpha_{1,3}}\alpha_{1,1} + \overline{\alpha_{2,3}}\alpha_{2,1} + \overline{\alpha_{3,3}}\alpha_{3,1} & \overline{\alpha_{1,3}}\alpha_{1,2} + \overline{\alpha_{2,3}}\alpha_{2,2} + \overline{\alpha_{3,3}}\alpha_{3,2} & \overline{\alpha_{1,3}}\alpha_{1,3} + \overline{\alpha_{2,3}}\alpha_{2,3} + \overline{\alpha_{3,3}}\alpha_{3,3} \end{pmatrix} \end{aligned}

Si formamos tres vectores a partir de las columnas de U,U,

ψ1=(α1,1α2,1α3,1),ψ2=(α1,2α2,2α3,2),ψ3=(α1,3α2,3α3,3),\vert \psi_1\rangle = \begin{pmatrix} \alpha_{1,1}\\ \alpha_{2,1}\\ \alpha_{3,1} \end{pmatrix}, \quad \vert \psi_2\rangle = \begin{pmatrix} \alpha_{1,2}\\ \alpha_{2,2}\\ \alpha_{3,2} \end{pmatrix}, \quad \vert \psi_3\rangle = \begin{pmatrix} \alpha_{1,3}\\ \alpha_{2,3}\\ \alpha_{3,3} \end{pmatrix},

entonces podemos expresar el producto anterior de la siguiente manera:

UU=(ψ1ψ1ψ1ψ2ψ1ψ3ψ2ψ1ψ2ψ2ψ2ψ3ψ3ψ1ψ3ψ2ψ3ψ3)U^{\dagger} U = \begin{pmatrix} \langle \psi_1\vert \psi_1 \rangle & \langle \psi_1\vert \psi_2 \rangle & \langle \psi_1\vert \psi_3 \rangle \\ \langle \psi_2\vert \psi_1 \rangle & \langle \psi_2\vert \psi_2 \rangle & \langle \psi_2\vert \psi_3 \rangle \\ \langle \psi_3\vert \psi_1 \rangle & \langle \psi_3\vert \psi_2 \rangle & \langle \psi_3\vert \psi_3 \rangle \end{pmatrix}

Refiriéndonos a la ecuación (3),(3), vemos ahora que la condición de que esta matriz sea igual a la matriz identidad es equivalente a la ortonormalidad del conjunto {ψ1,ψ2,ψ3}.\{\vert\psi_1\rangle,\vert\psi_2\rangle,\vert\psi_3\rangle\}.

Este argumento se generaliza a matrices unitarias de cualquier tamaño. El hecho de que las filas de una matriz formen una base ortonormal si y solo si la matriz es unitaria se sigue entonces del hecho de que una matriz es unitaria si y solo si su transpuesta también es unitaria.

Dada la equivalencia descrita anteriormente, junto con el hecho de que todo conjunto ortonormal puede extenderse para formar una base ortonormal, concluimos el siguiente hecho útil: Dado cualquier conjunto ortonormal de vectores {ψ1,,ψm}\{\vert\psi_1\rangle,\ldots,\vert\psi_m\rangle\} tomados de un espacio de dimensión nn, existe una matriz unitaria UU cuyas primeras mm columnas son los vectores ψ1,,ψm.\vert\psi_1\rangle,\ldots,\vert\psi_m\rangle. Pictóricamente, siempre podemos encontrar una matriz unitaria de esta forma:

U=(ψ1ψ2ψmψm+1ψn).U = \left( \begin{array}{ccccccc} \rule{0.4pt}{10pt} & \rule{0.4pt}{10pt} & & \rule{0.4pt}{10pt} & \rule{0.4pt}{10pt} & & \rule{0.4pt}{10pt}\\ \vert\psi_1\rangle & \vert\psi_2\rangle & \cdots & \vert\psi_m\rangle & \vert\psi_{m+1}\rangle & \cdots & \vert\psi_n\rangle\\[2mm] \rule{0.4pt}{10pt} & \rule{0.4pt}{10pt} & & \rule{0.4pt}{10pt} & \rule{0.4pt}{10pt} & & \rule{0.4pt}{10pt} \end{array} \right).

Aquí, las últimas nmn-m columnas se completan con cualquier elección de vectores ψm+1,,ψn\vert\psi_{m+1}\rangle,\ldots,\vert\psi_n\rangle que haga que {ψ1,,ψn}\{\vert\psi_1\rangle,\ldots,\vert\psi_n\rangle\} sea una base ortonormal.

Proyecciones y mediciones proyectivas

Matrices de proyección

Una matriz cuadrada Π\Pi se llama proyección si satisface dos propiedades:

  1. Π=Π.\Pi = \Pi^{\dagger}.
  2. Π2=Π.\Pi^2 = \Pi.

Las matrices que satisfacen la primera condición —es decir, que son iguales a su propia traspuesta conjugada— se llaman matrices hermitianas, y las matrices que satisfacen la segunda condición —que elevarlas al cuadrado las deja sin cambios— se llaman matrices idempotentes.

Como advertencia, la palabra proyección a veces se usa para referirse a cualquier matriz que satisface únicamente la segunda condición pero no necesariamente la primera; en ese caso, el término proyección ortogonal se emplea habitualmente para referirse a las matrices que satisfacen ambas propiedades. Sin embargo, en el contexto de la información y la computación cuántica, los términos proyección y matriz de proyección se refieren con más frecuencia a matrices que satisfacen ambas condiciones.

Un ejemplo de proyección es la matriz

Π=ψψ(4)\Pi = \vert \psi \rangle \langle \psi \vert \tag{4}

para cualquier vector unitario ψ.\vert \psi\rangle. Podemos ver que esta matriz es hermitiana de la siguiente manera:

Π=(ψψ)=(ψ)(ψ)=ψψ=Π.\Pi^{\dagger} = \bigl( \vert \psi \rangle \langle \psi \vert \bigr)^{\dagger} = \bigl( \langle \psi \vert \bigr)^{\dagger}\bigl( \vert \psi \rangle \bigr)^{\dagger} = \vert \psi \rangle \langle \psi \vert = \Pi.

Aquí, para obtener la segunda igualdad, hemos usado la fórmula

(AB)=BA,(A B)^{\dagger} = B^{\dagger} A^{\dagger},

que siempre es válida para cualesquiera dos matrices AA y BB para las que el producto ABAB tenga sentido.

Para ver que la matriz Π\Pi en (4)(4) es idempotente, podemos usar la hipótesis de que ψ\vert\psi\rangle es un vector unitario, de modo que satisface ψψ=1.\langle \psi \vert \psi\rangle = 1. Por lo tanto, tenemos

Π2=(ψψ)2=ψψψψ=ψψ=Π.\Pi^2 = \bigl( \vert\psi\rangle\langle \psi\vert \bigr)^2 = \vert\psi\rangle\langle \psi\vert\psi\rangle\langle\psi\vert = \vert\psi\rangle\langle\psi\vert = \Pi.

De manera más general, si {ψ1,,ψm}\{\vert \psi_1\rangle,\ldots,\vert \psi_m\rangle\} es cualquier conjunto ortonormal de vectores, entonces la matriz

Π=k=1mψkψk(5)\Pi = \sum_{k = 1}^m \vert \psi_k\rangle \langle \psi_k \vert \tag{5}

es una proyección. En concreto, tenemos

Π=(k=1mψkψk)=k=1m(ψkψk)=k=1mψkψk=Π,\begin{aligned} \Pi^{\dagger} &= \biggl(\sum_{k = 1}^m \vert \psi_k\rangle \langle \psi_k \vert\biggr)^{\dagger} \\ &= \sum_{k = 1}^m \bigl(\vert\psi_k\rangle\langle\psi_k\vert\bigr)^{\dagger} \\ &= \sum_{k = 1}^m \vert \psi_k\rangle \langle \psi_k \vert\\ &= \Pi, \end{aligned}

y

Π2=(j=1mψjψj)(k=1mψkψk)=j=1mk=1mψjψjψkψk=k=1mψkψk=Π,\begin{aligned} \Pi^2 & = \biggl( \sum_{j = 1}^m \vert \psi_j\rangle \langle \psi_j \vert\Bigr)\Bigl(\sum_{k = 1}^m \vert \psi_k\rangle \langle \psi_k \vert\biggr) \\ & = \sum_{j = 1}^m\sum_{k = 1}^m \vert \psi_j\rangle \langle \psi_j \vert \psi_k\rangle \langle \psi_k \vert \\ & = \sum_{k = 1}^m \vert \psi_k\rangle \langle \psi_k \vert\\ & = \Pi, \end{aligned}

donde la ortonormalidad de {ψ1,,ψm}\{\vert \psi_1\rangle,\ldots,\vert \psi_m\rangle\} implica la penúltima igualdad.

De hecho, esto agota todas las posibilidades: toda proyección Π\Pi puede escribirse en la forma (5)(5) para alguna elección de un conjunto ortonormal {ψ1,,ψm}.\{\vert \psi_1\rangle,\ldots,\vert \psi_m\rangle\}. (Técnicamente, la matriz cero Π=0,\Pi=0, que es una proyección, es un caso especial. Para encajarla en la forma general (5)(5) debemos permitir la posibilidad de que la suma sea vacía, lo que da como resultado la matriz cero.)

Mediciones proyectivas

La noción de medición de un sistema cuántico es más general que las simples mediciones en la base estándar. Las mediciones proyectivas son mediciones que se describen mediante una colección de proyecciones cuya suma es igual a la matriz identidad. En símbolos, una colección {Π0,,Πm1}\{\Pi_0,\ldots,\Pi_{m-1}\} de matrices de proyección describe una medición proyectiva si

Π0++Πm1=I.\Pi_0 + \cdots + \Pi_{m-1} = \mathbb{I}.

Cuando se realiza dicha medición sobre un sistema X\mathsf{X} mientras se encuentra en algún estado ψ,\vert\psi\rangle, suceden dos cosas:

  1. Para cada k{0,,m1},k\in\{0,\ldots,m-1\}, el resultado de la medición es kk con probabilidad igual a

    Pr(el resultado es k)=Πkψ2.\operatorname{Pr}\bigl(\text{el resultado es $k$}\bigr) = \bigl\| \Pi_k \vert \psi \rangle \bigr\|^2.
  2. Sea cual sea el resultado kk que produce la medición, el estado de X\mathsf{X} pasa a ser

    ΠkψΠkψ.\frac{\Pi_k \vert\psi\rangle}{\bigl\|\Pi_k \vert\psi\rangle\bigr\|}.

También podemos elegir resultados distintos de {0,,m1}\{0,\ldots,m-1\} para las mediciones proyectivas si lo deseamos. De manera más general, para cualquier conjunto finito y no vacío Σ,\Sigma, si tenemos una colección de matrices de proyección

{Πa:aΣ}\{\Pi_a:a\in\Sigma\}

que satisface la condición

aΣΠa=I,\sum_{a\in\Sigma} \Pi_a = \mathbb{I},

entonces esta colección describe una medición proyectiva cuyos posibles resultados coinciden con el conjunto Σ,\Sigma, donde las reglas son las mismas que antes:

  1. Para cada aΣ,a\in\Sigma, el resultado de la medición es aa con probabilidad igual a

    Pr(el resultado es a)=Πaψ2.\operatorname{Pr}\bigl(\text{el resultado es $a$}\bigr) = \bigl\| \Pi_a \vert \psi \rangle \bigr\|^2.
  2. Sea cual sea el resultado aa que produce la medición, el estado de X\mathsf{X} pasa a ser

    ΠaψΠaψ.\frac{\Pi_a \vert\psi\rangle}{\bigl\|\Pi_a \vert\psi\rangle\bigr\|}.

Por ejemplo, las mediciones en la base estándar son equivalentes a mediciones proyectivas, donde Σ\Sigma es el conjunto de estados clásicos del sistema X\mathsf{X} del que estemos hablando y nuestro conjunto de matrices de proyección es {aa:aΣ}.\{\vert a\rangle\langle a\vert:a\in\Sigma\}.

Otro ejemplo de medición proyectiva, esta vez sobre dos qubits (X,Y),(\mathsf{X},\mathsf{Y}), lo da el conjunto {Π0,Π1},\{\Pi_0,\Pi_1\}, donde

Π0=ϕ+ϕ++ϕϕ+ψ+ψ+yΠ1=ψψ.\Pi_0 = \vert \phi^+\rangle\langle \phi^+ \vert + \vert \phi^-\rangle\langle \phi^- \vert + \vert \psi^+\rangle\langle \psi^+ \vert \quad\text{y}\quad \Pi_1 = \vert\psi^-\rangle\langle\psi^-\vert.

Si tenemos múltiples sistemas que se encuentran conjuntamente en algún estado cuántico y se realiza una medición proyectiva sobre solo uno de los sistemas, la acción es similar a lo que teníamos para las mediciones en la base estándar —y de hecho, ahora podemos describir esta acción en términos mucho más simples que antes.

Para ser más precisos, supongamos que tenemos dos sistemas (X,Y)(\mathsf{X},\mathsf{Y}) en un estado cuántico ψ,\vert\psi\rangle, y se realiza una medición proyectiva descrita por una colección {Πa:aΣ}\{\Pi_a : a\in\Sigma\} sobre el sistema X,\mathsf{X}, mientras que no se hace nada sobre Y.\mathsf{Y}. Esto equivale a realizar la medición proyectiva descrita por la colección

{ΠaI:aΣ}\bigl\{ \Pi_a \otimes \mathbb{I} \,:\, a\in\Sigma\bigr\}

sobre el sistema conjunto (X,Y).(\mathsf{X},\mathsf{Y}). Cada resultado de medición aa ocurre con probabilidad

(ΠaI)ψ2,\bigl\| (\Pi_a \otimes \mathbb{I})\vert \psi\rangle \bigr\|^2,

y condicionado a que aparezca el resultado a,a, el estado del sistema conjunto (X,Y)(\mathsf{X},\mathsf{Y}) pasa a ser

(ΠaI)ψ(ΠaI)ψ.\frac{(\Pi_a \otimes \mathbb{I})\vert \psi\rangle}{\bigl\| (\Pi_a \otimes \mathbb{I})\vert \psi\rangle \bigr\|}.

Implementación de mediciones proyectivas

Las mediciones proyectivas arbitrarias pueden implementarse usando operaciones unitarias, mediciones en la base estándar y un sistema de espacio de trabajo adicional, como se explicará a continuación.

Supongamos que X\mathsf{X} es un sistema y {Π0,,Πm1}\{\Pi_0,\ldots,\Pi_{m-1}\} es una medición proyectiva sobre X.\mathsf{X}. Podemos generalizar fácilmente esta discusión a mediciones proyectivas con diferentes conjuntos de resultados, pero por conveniencia y simplicidad asumiremos que el conjunto de posibles resultados de nuestra medición es {0,,m1}.\{0,\ldots,m-1\}.

Señalemos explícitamente que mm no es necesariamente igual al número de estados clásicos de X\mathsf{X} — denotaremos por nn el número de estados clásicos de X,\mathsf{X}, lo que significa que cada matriz Πk\Pi_k es una matriz de proyección de n×n.n\times n.

Dado que asumimos que {Π0,Πm1}\{\Pi_0\ldots,\Pi_{m-1}\} representa una medición proyectiva, necesariamente se cumple que

k=0m1Πk=In.\sum_{k = 0}^{m-1} \Pi_k = \mathbb{I}_n.

Nuestro objetivo es realizar un proceso que tenga el mismo efecto que realizar esta medición proyectiva sobre X,\mathsf{X}, pero hacerlo usando únicamente operaciones unitarias y mediciones en la base estándar.

Haremos uso de un sistema de espacio de trabajo adicional Y\mathsf{Y} para ello, y específicamente tomaremos el conjunto de estados clásicos de Y\mathsf{Y} como {0,,m1},\{0,\ldots,m-1\}, que es el mismo que el conjunto de resultados de la medición proyectiva. La idea es que realizaremos una medición en la base estándar sobre Y,\mathsf{Y}, e interpretaremos el resultado de esta medición como equivalente al resultado de la medición proyectiva sobre X.\mathsf{X}. Necesitaremos asumir que Y\mathsf{Y} se inicializa en algún estado fijo, que elegiremos como 0.\vert 0\rangle. (Cualquier otra elección de vector de estado cuántico fijo podría funcionar, pero elegir 0\vert 0\rangle hace que la explicación siguiente sea mucho más sencilla.)

Por supuesto, para que una medición en la base estándar de Y\mathsf{Y} nos diga algo sobre X,\mathsf{X}, necesitaremos permitir que X\mathsf{X} y Y\mathsf{Y} interactúen de alguna manera antes de medir Y,\mathsf{Y}, realizando una operación unitaria sobre el sistema (Y,X).(\mathsf{Y},\mathsf{X}). Primero consideremos esta matriz:

M=k=0m1k0Πk.M = \sum_{k = 0}^{m-1} \vert k \rangle \langle 0 \vert \otimes \Pi_k.

Expresada explícitamente como una llamada matriz en bloques, que es esencialmente una matriz de matrices que interpretamos como una única matriz más grande, MM tiene este aspecto:

M=(Π000Π100Πm100).M = \begin{pmatrix} \Pi_0 & 0 & \cdots & 0\\[1mm] \Pi_1 & 0 & \cdots & 0\\[1mm] \vdots & \vdots & \ddots & \vdots\\[1mm] \Pi_{m-1} & 0 & \cdots & 0 \end{pmatrix}.

Aquí, cada 00 representa una matriz de n×nn\times n rellena completamente con ceros, de modo que la matriz completa MM es una matriz de nm×nm.nm\times nm.

Ahora bien, MM ciertamente no es una matriz unitaria (salvo que m=1,m=1, en cuyo caso Π0=I,\Pi_0 = \mathbb{I}, lo que da M=IM = \mathbb{I} en este caso trivial), porque las matrices unitarias no pueden tener ninguna columna (ni fila) que sea enteramente 0;0; las matrices unitarias tienen columnas que forman bases ortonormales, y el vector cero no es un vector unitario.

Sin embargo, sí es cierto que las primeras nn columnas de MM son ortonormales, y esto lo obtenemos de la hipótesis de que {Π0,,Πm1}\{\Pi_0,\ldots,\Pi_{m-1}\} es una medición. Para verificar esta afirmación, observa que para cada j{0,,n1},j\in\{0,\ldots,n-1\}, el vector formado por la columna número jj de MM es el siguiente:

ψj=M0,j=k=0m1kΠkj.\vert \psi_j\rangle = M \vert 0, j\rangle = \sum_{k = 0}^{m-1} \vert k \rangle \otimes \Pi_k \vert j\rangle.

Nota que aquí estamos numerando las columnas a partir de la columna 0.0. Tomando el producto interno de la columna ii con la columna jj cuando i,j{0,,n1}i,j\in\{0,\ldots,n-1\} obtenemos

ψiψj=(k=0m1kΠki)(l=0m1lΠlj)=k=0m1l=0m1kliΠkΠlj=k=0m1iΠkΠkj=k=0m1iΠkj=iIj={1i=j0ij,\begin{aligned} \langle \psi_i \vert \psi_j \rangle & = \biggl(\sum_{k = 0}^{m-1} \vert k \rangle \otimes \Pi_k \vert i\rangle\biggr)^{\dagger} \biggl(\sum_{l = 0}^{m-1} \vert l \rangle \otimes \Pi_l \vert j\rangle\biggr) \\ & = \sum_{k = 0}^{m-1} \sum_{l = 0}^{m-1} \langle k \vert l \rangle \langle i \vert \Pi_k \Pi_l \vert j\rangle\\ & = \sum_{k = 0}^{m-1} \langle i \vert \Pi_k \Pi_k \vert j\rangle\\ & = \sum_{k = 0}^{m-1} \langle i \vert \Pi_k \vert j\rangle\\ & = \langle i \vert \mathbb{I} \vert j \rangle\\ & = \begin{cases} 1 & i = j\\ 0 & i\neq j, \end{cases} \end{aligned}

que es lo que necesitábamos demostrar.

Por lo tanto, dado que las primeras nn columnas de la matriz MM son ortonormales, podemos reemplazar todas las entradas cero restantes por alguna otra elección de entradas de números complejos de modo que la matriz completa sea unitaria.

U=(Π0??Π1??Πm1??)U = \begin{pmatrix} \Pi_0 & \fbox{?} & \cdots & \fbox{?}\\[1mm] \Pi_1 & \fbox{?} & \cdots & \fbox{?}\\[1mm] \vdots & \vdots & \ddots & \vdots\\[1mm] \Pi_{m-1} & \fbox{?} & \cdots & \fbox{?} \end{pmatrix}

Si se nos dan las matrices Π0,,Πm1,\Pi_0,\ldots,\Pi_{m-1}, podemos calcular matrices adecuadas para rellenar los bloques marcados con ?\fbox{?} en la ecuación —usando el proceso de Gram–Schmidt— pero para los fines de esta discusión no importa específicamente cuáles sean esas matrices.

Finalmente podemos describir el proceso de medición: primero aplicamos UU sobre el sistema conjunto (Y,X)(\mathsf{Y},\mathsf{X}) y luego medimos Y\mathsf{Y} con respecto a una medición en la base estándar. Para un estado arbitrario ϕ\vert \phi \rangle de X,\mathsf{X}, obtenemos el estado

U(0ϕ)=M(0ϕ)=k=0m1kΠkϕ,U \bigl( \vert 0\rangle \vert \phi\rangle\bigr) = M \bigl( \vert 0\rangle \vert \phi\rangle\bigr) = \sum_{k = 0}^{m-1} \vert k\rangle \otimes \Pi_k \vert\phi\rangle,

donde la primera igualdad se desprende del hecho de que UU y MM coinciden en sus primeras nn columnas. Cuando realizamos una medición en la base estándar sobre Y,\mathsf{Y}, obtenemos cada resultado kk con probabilidad

Πkϕ2,\bigl\| \Pi_k \vert \phi\rangle \bigr\|^2,

en cuyo caso el estado de (Y,X)(\mathsf{Y},\mathsf{X}) pasa a ser

kΠkϕΠkϕ.\vert k\rangle \otimes \frac{\Pi_k \vert \phi\rangle}{\bigl\| \Pi_k \vert \phi\rangle \bigr\|}.

Así, Y\mathsf{Y} almacena una copia del resultado de la medición y X\mathsf{X} cambia exactamente como lo haría si la medición proyectiva descrita por {Π0,,Πm1}\{\Pi_0,\ldots,\Pi_{m-1}\} se hubiera realizado directamente sobre X.\mathsf{X}.