Saltar al contenido principal

Información clásica

Al igual que en la lección anterior, comenzaremos esta lección con una discusión sobre información clásica. De nuevo, las descripciones probabilística y cuántica son matemáticamente similares, y reconocer cómo funciona la matemática en el contexto familiar de la información clásica ayuda a entender por qué la información cuántica se describe de la manera en que lo hace.

Estados clásicos mediante el producto cartesiano

Empezaremos desde un nivel muy básico, con los estados clásicos de múltiples sistemas. Para simplificar, comenzaremos discutiendo solo dos sistemas y luego generalizaremos a más de dos.

Para ser precisos, sea X\mathsf{X} un sistema cuyo conjunto de estados clásicos es Σ,\Sigma, y sea Y\mathsf{Y} un segundo sistema cuyo conjunto de estados clásicos es Γ.\Gamma. Nótese que, al referirnos a estos conjuntos como conjuntos de estados clásicos, asumimos que Σ\Sigma y Γ\Gamma son ambos finitos y no vacíos. Podría darse el caso de que Σ=Γ,\Sigma = \Gamma, pero esto no es necesariamente así — y de todas formas, conviene usar nombres distintos para referirnos a estos conjuntos en aras de la claridad.

Ahora imagina que los dos sistemas, X\mathsf{X} e Y,\mathsf{Y}, se colocan uno al lado del otro, con X\mathsf{X} a la izquierda e Y\mathsf{Y} a la derecha. Si lo deseamos, podemos ver estos dos sistemas como si formaran un único sistema, que podemos denotar por (X,Y)(\mathsf{X},\mathsf{Y}) o XY\mathsf{XY} según nuestra preferencia. Una pregunta natural sobre este sistema compuesto (X,Y)(\mathsf{X},\mathsf{Y}) es: «¿Cuáles son sus estados clásicos?»

La respuesta es que el conjunto de estados clásicos de (X,Y)(\mathsf{X},\mathsf{Y}) es el producto cartesiano de Σ\Sigma y Γ,\Gamma, que es el conjunto definido como

Σ×Γ={(a,b):aΣ  y  bΓ}. \Sigma\times\Gamma = \bigl\{(a,b)\,:\,a\in\Sigma\;\text{y}\;b\in\Gamma\bigr\}.

En términos simples, el producto cartesiano es precisamente la noción matemática que captura la idea de ver un elemento de un conjunto y un elemento de un segundo conjunto juntos, como si formaran un único elemento de un único conjunto. En el caso presente, decir que (X,Y)(\mathsf{X},\mathsf{Y}) está en el estado clásico (a,b)Σ×Γ(a,b)\in\Sigma\times\Gamma significa que X\mathsf{X} está en el estado clásico aΣa\in\Sigma e Y\mathsf{Y} está en el estado clásico bΓ;b\in\Gamma; y si el estado clásico de X\mathsf{X} es aΣa\in\Sigma y el estado clásico de Y\mathsf{Y} es bΓ,b\in\Gamma, entonces el estado clásico del sistema conjunto (X,Y)(\mathsf{X},\mathsf{Y}) es (a,b).(a,b).

Para más de dos sistemas, la situación se generaliza de forma natural. Si suponemos que X1,,Xn\mathsf{X}_1,\ldots,\mathsf{X}_n son sistemas con conjuntos de estados clásicos Σ1,,Σn,\Sigma_1,\ldots,\Sigma_n, respectivamente, para cualquier entero positivo n,n, el conjunto de estados clásicos de la nn-tupla (X1,,Xn),(\mathsf{X}_1,\ldots,\mathsf{X}_n), vista como un único sistema conjunto, es el producto cartesiano

Σ1××Σn={(a1,,an):a1Σ1,,anΣn}. \Sigma_1\times\cdots\times\Sigma_n = \bigl\{(a_1,\ldots,a_n)\,:\, a_1\in\Sigma_1,\:\ldots,\:a_n\in\Sigma_n\bigr\}.

Por supuesto, somos libres de usar los nombres que queramos para los sistemas y de ordenarlos como elijamos. En particular, si tenemos nn sistemas como los de arriba, podríamos optar por llamarlos X0,,Xn1\mathsf{X}_{0},\ldots,\mathsf{X}_{n-1} y ordenarlos de derecha a izquierda, de modo que el sistema conjunto sea (Xn1,,X0).(\mathsf{X}_{n-1},\ldots,\mathsf{X}_0). Siguiendo el mismo patrón para nombrar los estados clásicos y los conjuntos de estados clásicos asociados, podríamos entonces referirnos a un estado clásico

(an1,,a0)Σn1××Σ0(a_{n-1},\ldots,a_0) \in \Sigma_{n-1}\times \cdots \times \Sigma_0

de este sistema compuesto. De hecho, esta es la convención de ordenamiento que utiliza Qiskit al nombrar múltiples qubits. Volveremos a esta convención y a cómo se relaciona con los circuitos cuánticos en la próxima lección, pero ya empezaremos a usarla para acostumbrarnos a ella.

A menudo es conveniente escribir un estado clásico de la forma (an1,,a0)(a_{n-1},\ldots,a_0) como una cadena an1a0a_{n-1}\cdots a_0 para abreviar, en particular en la situación muy habitual en que los conjuntos de estados clásicos Σ0,,Σn1\Sigma_0,\ldots,\Sigma_{n-1} están asociados con conjuntos de símbolos o caracteres. En este contexto, el término alfabeto se usa comúnmente para referirse a los conjuntos de símbolos utilizados para formar cadenas, pero la definición matemática de un alfabeto es exactamente la misma que la de un conjunto de estados clásicos: es un conjunto finito y no vacío.

Por ejemplo, supongamos que X0,,X9\mathsf{X}_0,\ldots,\mathsf{X}_9 son bits, de modo que los conjuntos de estados clásicos de estos sistemas son todos iguales.

Σ0=Σ1==Σ9={0,1} \Sigma_0 = \Sigma_1 = \cdots = \Sigma_9 = \{0,1\}

Hay entonces 210=10242^{10} = 1024 estados clásicos del sistema conjunto (X9,,X0),(\mathsf{X}_9,\ldots,\mathsf{X}_0), que son los elementos del conjunto

Σ9×Σ8××Σ0={0,1}10. \Sigma_9\times\Sigma_8\times\cdots\times\Sigma_0 = \{0,1\}^{10}.

Escritos como cadenas, estos estados clásicos tienen este aspecto:

000000000000000000010000000010000000001100000001001111111111 \begin{array}{c} 0000000000\\ 0000000001\\ 0000000010\\ 0000000011\\ 0000000100\\ \vdots\\[1mm] 1111111111 \end{array}

Para el estado clásico 0000000110,0000000110, por ejemplo, vemos que X1\mathsf{X}_1 y X2\mathsf{X}_2 están en el estado 1,1, mientras que todos los demás sistemas están en el estado 0.0.

Estados probabilísticos

Recordemos de la lección anterior que un estado probabilístico asocia una probabilidad con cada estado clásico de un sistema. Así, un estado probabilístico de múltiples sistemas — vistos colectivamente como un único sistema — asocia una probabilidad con cada elemento del producto cartesiano de los conjuntos de estados clásicos de los sistemas individuales.

Por ejemplo, supongamos que X\mathsf{X} e Y\mathsf{Y} son ambos bits, de modo que sus correspondientes conjuntos de estados clásicos son Σ={0,1}\Sigma = \{0,1\} y Γ={0,1},\Gamma = \{0,1\}, respectivamente. Aquí hay un estado probabilístico del par (X,Y):(\mathsf{X},\mathsf{Y}):

Pr((X,Y)=(0,0))=1/2Pr((X,Y)=(0,1))=0Pr((X,Y)=(1,0))=0Pr((X,Y)=(1,1))=1/2 \begin{aligned} \operatorname{Pr}\bigl( (\mathsf{X},\mathsf{Y}) = (0,0)\bigr) & = 1/2 \\[2mm] \operatorname{Pr}\bigl( (\mathsf{X},\mathsf{Y}) = (0,1)\bigr) & = 0\\[2mm] \operatorname{Pr}\bigl( (\mathsf{X},\mathsf{Y}) = (1,0)\bigr) & = 0\\[2mm] \operatorname{Pr}\bigl( (\mathsf{X},\mathsf{Y}) = (1,1)\bigr) & = 1/2 \end{aligned}

Este estado probabilístico es uno en el que tanto X\mathsf{X} como Y\mathsf{Y} son bits aleatorios — cada uno es 00 con probabilidad 1/21/2 y 11 con probabilidad 1/21/2 — pero los estados clásicos de los dos bits siempre coinciden. Este es un ejemplo de correlación entre estos sistemas.

Ordenamiento de los conjuntos de estados del producto cartesiano

Los estados probabilísticos de los sistemas pueden representarse mediante vectores de probabilidad, como se discutió en la lección anterior. En particular, las entradas del vector representan probabilidades de que el sistema esté en los posibles estados clásicos de ese sistema, entendiéndose que se ha seleccionado una correspondencia entre las entradas y el conjunto de estados clásicos.

Elegir tal correspondencia equivale efectivamente a decidir un ordenamiento de los estados clásicos, que a menudo es natural o viene determinado por una convención estándar. Por ejemplo, el alfabeto binario {0,1}\{0,1\} se ordena naturalmente con 00 primero y 11 segundo, por lo que la primera entrada de un vector de probabilidad que representa un estado probabilístico de un bit es la probabilidad de estar en el estado 0,0, y la segunda entrada es la probabilidad de estar en el estado 1.1.

Nada de esto cambia en el contexto de múltiples sistemas, pero hay una decisión que tomar. El conjunto de estados clásicos de múltiples sistemas vistos conjuntamente como un único sistema es el producto cartesiano de los conjuntos de estados clásicos de los sistemas individuales — por lo que debemos decidir cómo se ordenan los elementos de los productos cartesianos de los conjuntos de estados clásicos.

Existe una convención simple que seguimos para hacer esto: partir de los ordenamientos ya establecidos para los conjuntos de estados clásicos individuales, y luego ordenar los elementos del producto cartesiano alfabéticamente. Otra forma de decirlo es que las entradas de cada nn-tupla (o, de forma equivalente, los símbolos de cada cadena) se tratan como si tuvieran una significancia que decrece de izquierda a derecha. Por ejemplo, según esta convención, el producto cartesiano {1,2,3}×{0,1}\{1,2,3\}\times\{0,1\} se ordena así:

(1,0),  (1,1),  (2,0),  (2,1),  (3,0),  (3,1). (1,0),\; (1,1),\; (2,0),\; (2,1),\; (3,0),\; (3,1).

Cuando las nn-tuplas se escriben como cadenas y se ordenan de esta manera, observamos patrones familiares, como que {0,1}×{0,1}\{0,1\}\times\{0,1\} se ordena como 00,01,10,11,00, 01, 10, 11, y el conjunto {0,1}10\{0,1\}^{10} se ordena como se escribió antes en la lección. Como otro ejemplo, al ver el conjunto {0,1,,9}×{0,1,,9}\{0, 1, \dots, 9\} \times \{0, 1, \dots, 9\} como un conjunto de cadenas, obtenemos los números de dos dígitos del 0000 al 99,99, ordenados numéricamente. Esto no es obviamente una coincidencia; nuestro sistema numérico decimal usa precisamente este tipo de ordenamiento alfabético, donde la palabra alfabético debe entenderse con un sentido amplio que incluye los dígitos además de las letras.

Volviendo al ejemplo de dos bits de arriba, el estado probabilístico descrito anteriormente se representa entonces por el siguiente vector de probabilidad, donde las entradas están etiquetadas explícitamente para mayor claridad.

(120012)probabilidad de estar en el estado 00probabilidad de estar en el estado 01probabilidad de estar en el estado 10probabilidad de estar en el estado 11(1) \begin{pmatrix} \frac{1}{2}\\[1mm] 0\\[1mm] 0\\[1mm] \frac{1}{2} \end{pmatrix} \begin{array}{l} \leftarrow \text{probabilidad de estar en el estado 00}\\[1mm] \leftarrow \text{probabilidad de estar en el estado 01}\\[1mm] \leftarrow \text{probabilidad de estar en el estado 10}\\[1mm] \leftarrow \text{probabilidad de estar en el estado 11} \end{array} \tag{1}

Independencia de dos sistemas

Un tipo especial de estado probabilístico de dos sistemas es aquel en el que los sistemas son independientes. Intuitivamente, dos sistemas son independientes si conocer el estado clásico de cualquiera de ellos no tiene ningún efecto sobre las probabilidades asociadas al otro. Es decir, saber en qué estado clásico se encuentra uno de los sistemas no proporciona ninguna información sobre el estado clásico del otro.

Para definir esta noción con precisión, supongamos de nuevo que X\mathsf{X} e Y\mathsf{Y} son sistemas con conjuntos de estados clásicos Σ\Sigma y Γ,\Gamma, respectivamente. Con respecto a un estado probabilístico dado de estos sistemas, se dice que son independientes si se cumple que

Pr((X,Y)=(a,b))=Pr(X=a)Pr(Y=b)(2) \operatorname{Pr}((\mathsf{X},\mathsf{Y}) = (a,b)) = \operatorname{Pr}(\mathsf{X} = a) \operatorname{Pr}(\mathsf{Y} = b) \tag{2}

para cualquier elección de aΣa\in\Sigma y bΓ.b\in\Gamma.

Para expresar esta condición en términos de vectores de probabilidad, supongamos que el estado probabilístico dado de (X,Y)(\mathsf{X},\mathsf{Y}) se describe mediante un vector de probabilidad, escrito en notación de Dirac como

(a,b)Σ×Γpabab.\sum_{(a,b) \in \Sigma\times\Gamma} p_{ab} \vert a b\rangle.

La condición (2)(2) de independencia es entonces equivalente a la existencia de dos vectores de probabilidad

ϕ=aΣqaayψ=bΓrbb,(3)\vert \phi \rangle = \sum_{a\in\Sigma} q_a \vert a \rangle \quad\text{y}\quad \vert \psi \rangle = \sum_{b\in\Gamma} r_b \vert b \rangle, \tag{3}

que representan las probabilidades asociadas con los estados clásicos de X\mathsf{X} e Y,\mathsf{Y}, respectivamente, tales que

pab=qarb(4)p_{ab} = q_a r_b \tag{4}

para todo aΣa\in\Sigma y bΓ.b\in\Gamma.

Por ejemplo, el estado probabilístico de un par de bits (X,Y)(\mathsf{X},\mathsf{Y}) representado por el vector

1600+11201+1210+1411 \frac{1}{6} \vert 00 \rangle + \frac{1}{12} \vert 01 \rangle + \frac{1}{2} \vert 10 \rangle + \frac{1}{4} \vert 11 \rangle

es uno en el que X\mathsf{X} e Y\mathsf{Y} son independientes. En concreto, la condición requerida para la independencia se cumple para los vectores de probabilidad

ϕ=140+341yψ=230+131. \vert \phi \rangle = \frac{1}{4} \vert 0 \rangle + \frac{3}{4} \vert 1 \rangle \quad\text{y}\quad \vert \psi \rangle = \frac{2}{3} \vert 0 \rangle + \frac{1}{3} \vert 1 \rangle.

Por ejemplo, para que las probabilidades del estado 0000 coincidan, necesitamos 16=14×23,\frac{1}{6} = \frac{1}{4} \times \frac{2}{3}, y efectivamente así es. Las demás entradas pueden verificarse de manera similar.

Por otro lado, el estado probabilístico (1),(1), que podemos escribir como

1200+1211,(5) \frac{1}{2} \vert 00 \rangle + \frac{1}{2} \vert 11 \rangle, \tag{5}

no representa independencia entre los sistemas X\mathsf{X} e Y.\mathsf{Y}. Existe una forma sencilla de argumentarlo.

Supongamos que existieran vectores de probabilidad ϕ\vert \phi\rangle y ψ,\vert \psi \rangle, como en la ecuación (3)(3) anterior, para los cuales se satisface la condición (4)(4) para cualquier elección de aa y b.b. Necesariamente se tendría que

q0r1=Pr((X,Y)=(0,1))=0. q_0 r_1 = \operatorname{Pr}\bigl((\mathsf{X},\mathsf{Y}) = (0,1)\bigr) = 0.

Esto implica que q0=0q_0 = 0 o r1=0,r_1 = 0, porque si ambos fueran distintos de cero, el producto q0r1q_0 r_1 también sería distinto de cero. Esto lleva a la conclusión de que q0r0=0q_0 r_0 = 0 (en caso de que q0=0q_0 = 0) o q1r1=0q_1 r_1 = 0 (en caso de que r1=0r_1 = 0). Sin embargo, ninguna de esas igualdades puede ser cierta porque necesariamente q0r0=1/2q_0 r_0 = 1/2 y q1r1=1/2.q_1 r_1 = 1/2. Por lo tanto, no existen vectores ϕ\vert\phi\rangle y ψ\vert\psi\rangle que satisfagan la propiedad requerida para la independencia.

Habiendo definido la independencia entre dos sistemas, podemos ahora definir qué se entiende por correlación: es una falta de independencia. Por ejemplo, como los dos bits del estado probabilístico representado por el vector (5)(5) no son independientes, por definición están correlacionados.

Productos tensoriales de vectores

La condición de independencia que acabamos de describir puede expresarse de forma concisa mediante la noción de producto tensorial. Aunque los productos tensoriales son una noción muy general, y pueden definirse de manera bastante abstracta y aplicarse a diversas estructuras matemáticas, podemos adoptar una definición simple y concreta en el caso que nos ocupa.

Dados dos vectores

ϕ=aΣαaayψ=bΓβbb,\vert \phi \rangle = \sum_{a\in\Sigma} \alpha_a \vert a \rangle \quad\text{y}\quad \vert \psi \rangle = \sum_{b\in\Gamma} \beta_b \vert b \rangle,

el producto tensorial ϕψ\vert \phi \rangle \otimes \vert \psi \rangle es el vector definido como

ϕψ=(a,b)Σ×Γαaβbab. \vert \phi \rangle \otimes \vert \psi \rangle = \sum_{(a,b)\in\Sigma\times\Gamma} \alpha_a \beta_b \vert ab\rangle.

Las entradas de este nuevo vector corresponden a los elementos del producto cartesiano Σ×Γ,\Sigma\times\Gamma, que se escriben como cadenas en la ecuación anterior. De forma equivalente, el vector π=ϕψ\vert \pi \rangle = \vert \phi \rangle \otimes \vert \psi \rangle se define por la ecuación

abπ=aϕbψ\langle ab \vert \pi \rangle = \langle a \vert \phi \rangle \langle b \vert \psi \rangle

que es cierta para todo aΣa\in\Sigma y bΓ.b\in\Gamma.

Podemos ahora reformular la condición de independencia: para un sistema conjunto (X,Y)(\mathsf{X}, \mathsf{Y}) en un estado probabilístico representado por un vector de probabilidad π,\vert \pi \rangle, los sistemas X\mathsf{X} e Y\mathsf{Y} son independientes si π\vert\pi\rangle se obtiene tomando un producto tensorial

π=ϕψ \vert \pi \rangle = \vert \phi \rangle \otimes \vert \psi \rangle

de vectores de probabilidad ϕ\vert \phi \rangle y ψ\vert \psi \rangle sobre cada uno de los subsistemas X\mathsf{X} e Y.\mathsf{Y}. En esta situación, se dice que π\vert \pi \rangle es un estado producto o vector producto.

A menudo omitimos el símbolo \otimes al tomar el producto tensorial de kets, por ejemplo escribiendo ϕψ\vert \phi \rangle \vert \psi \rangle en lugar de ϕψ.\vert \phi \rangle \otimes \vert \psi \rangle. Esta convención captura la idea de que el producto tensorial es, en este contexto, la forma más natural o predeterminada de tomar el producto de dos vectores. Aunque es menos común, la notación ϕψ\vert \phi\otimes\psi\rangle también se usa a veces.

Cuando usamos la convención alfabética para ordenar los elementos de los productos cartesianos, obtenemos la siguiente especificación para el producto tensorial de dos vectores columna.

(α1αm)(β1βk)=(α1β1α1βkα2β1α2βkαmβ1αmβk) \begin{pmatrix} \alpha_1\\ \vdots\\ \alpha_m \end{pmatrix} \otimes \begin{pmatrix} \beta_1\\ \vdots\\ \beta_k \end{pmatrix} = \begin{pmatrix} \alpha_1 \beta_1\\ \vdots\\ \alpha_1 \beta_k\\ \alpha_2 \beta_1\\ \vdots\\ \alpha_2 \beta_k\\ \vdots\\ \alpha_m \beta_1\\ \vdots\\ \alpha_m \beta_k \end{pmatrix}

Como acotación importante, observa la siguiente expresión para los productos tensoriales de vectores de la base estándar:

ab=ab.\vert a \rangle \otimes \vert b \rangle = \vert ab \rangle.

Alternativamente, podríamos escribir (a,b)(a,b) como un par ordenado, en lugar de una cadena, en cuyo caso obtenemos ab=(a,b).\vert a \rangle \otimes \vert b \rangle = \vert (a,b) \rangle. Sin embargo, es más común omitir los paréntesis en esta situación, escribiendo en cambio ab=a,b.\vert a \rangle \otimes \vert b \rangle = \vert a,b \rangle. Esto es algo habitual en matemáticas en general; los paréntesis que no añaden claridad ni eliminan ambigüedad suelen omitirse.

El producto tensorial de dos vectores tiene la importante propiedad de ser bilineal, lo que significa que es lineal en cada uno de los dos argumentos por separado, suponiendo que el otro argumento es fijo. Esta propiedad puede expresarse mediante estas ecuaciones:

1. Linealidad en el primer argumento:

(ϕ1+ϕ2)ψ=ϕ1ψ+ϕ2ψ(αϕ)ψ=α(ϕψ)\begin{aligned} \bigl(\vert\phi_1\rangle + \vert\phi_2\rangle\bigr)\otimes \vert\psi\rangle & = \vert\phi_1\rangle \otimes \vert\psi\rangle + \vert\phi_2\rangle \otimes \vert\psi\rangle \\[1mm] \bigl(\alpha \vert \phi \rangle\bigr) \otimes \vert \psi \rangle & = \alpha \bigl(\vert \phi \rangle \otimes \vert \psi \rangle \bigr) \end{aligned}

2. Linealidad en el segundo argumento:

ϕ(ψ1+ψ2)=ϕψ1+ϕψ2ϕ(αψ)=α(ϕψ)\begin{aligned} \vert \phi \rangle \otimes \bigl(\vert \psi_1 \rangle + \vert \psi_2 \rangle \bigr) & = \vert \phi \rangle \otimes \vert \psi_1 \rangle + \vert \phi \rangle \otimes \vert \psi_2 \rangle\\[1mm] \vert \phi \rangle \otimes \bigl(\alpha \vert \psi \rangle \bigr) & = \alpha \bigl(\vert\phi\rangle\otimes\vert\psi\rangle\bigr) \end{aligned}

Considerando la segunda ecuación de cada uno de estos pares de ecuaciones, vemos que los escalares «flotan libremente» dentro de los productos tensoriales:

(αϕ)ψ=ϕ(αψ)=α(ϕψ).\bigl(\alpha \vert \phi \rangle\bigr) \otimes \vert \psi \rangle = \vert \phi \rangle \otimes \bigl(\alpha \vert \psi \rangle \bigr) = \alpha \bigl(\vert \phi \rangle \otimes \vert \psi \rangle \bigr).

Por lo tanto, no hay ambigüedad en simplemente escribir αϕψ,\alpha\vert\phi\rangle\otimes\vert\psi\rangle, o alternativamente αϕψ\alpha\vert\phi\rangle\vert\psi \rangle o αϕψ,\alpha\vert\phi\otimes\psi\rangle, para referirse a este vector.

Independencia y productos tensoriales para tres o más sistemas

Las nociones de independencia y productos tensoriales se generalizan de forma directa a tres o más sistemas. Si X0,,Xn1\mathsf{X}_0,\ldots,\mathsf{X}_{n-1} son sistemas con conjuntos de estados clásicos Σ0,,Σn1,\Sigma_0,\ldots,\Sigma_{n-1}, respectivamente, entonces un estado probabilístico del sistema combinado (Xn1,,X0)(\mathsf{X}_{n-1},\ldots,\mathsf{X}_0) es un estado producto si el vector de probabilidad asociado tiene la forma

ψ=ϕn1ϕ0 \vert \psi \rangle = \vert \phi_{n-1} \rangle \otimes \cdots \otimes \vert \phi_0 \rangle

para vectores de probabilidad ϕ0,,ϕn1\vert \phi_0 \rangle,\ldots,\vert \phi_{n-1}\rangle que describen los estados probabilísticos de X0,,Xn1.\mathsf{X}_0,\ldots,\mathsf{X}_{n-1}. Aquí, la definición del producto tensorial se generaliza de manera natural: el vector

ψ=ϕn1ϕ0\vert \psi \rangle = \vert \phi_{n-1} \rangle \otimes \cdots \otimes \vert \phi_0 \rangle

se define por la ecuación

an1a0ψ=an1ϕn1a0ϕ0 \langle a_{n-1} \cdots a_0 \vert \psi \rangle = \langle a_{n-1} \vert \phi_{n-1} \rangle \cdots \langle a_0 \vert \phi_0 \rangle

que es cierta para todo a0Σ0,an1Σn1.a_0\in\Sigma_0, \ldots a_{n-1}\in\Sigma_{n-1}.

Una forma diferente, pero equivalente, de definir el producto tensorial de tres o más vectores es de manera recursiva en términos de productos tensoriales de dos vectores:

ϕn1ϕ0=ϕn1(ϕn2ϕ0). \vert \phi_{n-1} \rangle \otimes \cdots \otimes \vert \phi_0 \rangle = \vert \phi_{n-1} \rangle \otimes \bigl( \vert \phi_{n-2} \rangle \otimes \cdots \otimes \vert \phi_0 \rangle \bigr).

Al igual que con el producto tensorial de solo dos vectores, el producto tensorial de tres o más vectores es lineal en cada uno de los argumentos individualmente, suponiendo que todos los demás argumentos son fijos. En este caso se dice que el producto tensorial de tres o más vectores es multilineal.

Al igual que en el caso de dos sistemas, podríamos decir que los sistemas X0,,Xn1\mathsf{X}_0,\ldots,\mathsf{X}_{n-1} son independientes cuando están en un estado producto, pero el término mutuamente independientes es más preciso. Resulta que existen otras nociones de independencia para tres o más sistemas, como la independencia por pares, que son tanto interesantes como importantes — aunque no en el contexto de este curso.

Generalizando la observación anterior sobre los productos tensoriales de vectores de la base estándar, para cualquier entero positivo nn y cualquier estados clásicos a0,,an1,a_0,\ldots,a_{n-1}, tenemos

an1a0=an1a0.\vert a_{n-1} \rangle \otimes \cdots \otimes \vert a_0 \rangle = \vert a_{n-1} \cdots a_0 \rangle.

Mediciones de estados probabilísticos

Pasemos ahora a las mediciones de estados probabilísticos de múltiples sistemas. Al elegir ver múltiples sistemas juntos como un único sistema, obtenemos inmediatamente una especificación de cómo deben funcionar las mediciones para múltiples sistemas — siempre que se midan todos los sistemas.

Por ejemplo, si el estado probabilístico de dos bits (X,Y)(\mathsf{X},\mathsf{Y}) se describe mediante el vector de probabilidad

1200+1211, \frac{1}{2} \vert 00 \rangle + \frac{1}{2} \vert 11 \rangle,

entonces el resultado 0000 — es decir, 00 para la medición de X\mathsf{X} y 00 para la medición de Y\mathsf{Y} — se obtiene con probabilidad 1/21/2, y el resultado 1111 también se obtiene con probabilidad 1/2.1/2. En cada caso actualizamos la descripción en vector de probabilidad de nuestro conocimiento en consecuencia, de modo que el estado probabilístico se convierte en 00|00\rangle o 11,|11\rangle, respectivamente.

Sin embargo, podríamos elegir no medir todos los sistemas, sino solo algunos de ellos. Esto producirá un resultado de medición para cada sistema que se mida, y también (en general) afectará nuestro conocimiento de los sistemas restantes que no medimos.

Para explicar cómo funciona esto, nos centraremos en el caso de dos sistemas, uno de los cuales se mide. La situación más general — en la que se mide algún subconjunto propio de tres o más sistemas — se reduce efectivamente al caso de dos sistemas cuando consideramos los sistemas que se miden colectivamente como si formaran un solo sistema, y los sistemas que no se miden como si formaran un segundo sistema.

Para ser precisos, supongamos que X\mathsf{X} e Y\mathsf{Y} son sistemas cuyos conjuntos de estados clásicos son Σ\Sigma y Γ,\Gamma, respectivamente, y que los dos sistemas juntos se encuentran en algún estado probabilístico. Consideraremos qué sucede cuando medimos solo X\mathsf{X} y no hacemos nada a Y.\mathsf{Y}. La situación en la que solo se mide Y\mathsf{Y} y nada le ocurre a X\mathsf{X} se trata de forma simétrica.

Primero, sabemos que la probabilidad de observar un estado clásico particular aΣa\in\Sigma cuando solo se mide X\mathsf{X} debe ser consistente con las probabilidades que obtendríamos bajo el supuesto de que Y\mathsf{Y} también se midiera. Es decir, debemos tener

Pr(X=a)=bΓPr((X,Y)=(a,b)). \operatorname{Pr}(\mathsf{X} = a) = \sum_{b\in\Gamma} \operatorname{Pr}\bigl( (\mathsf{X},\mathsf{Y}) = (a,b) \bigr).

Esta es la fórmula para el llamado estado probabilístico reducido (o marginal) de X\mathsf{X} por sí solo.

Esta fórmula tiene perfecto sentido a nivel intuitivo, en el sentido de que algo muy extraño tendría que ocurrir para que fuera incorrecta. Si fuera incorrecta, eso significaría que medir Y\mathsf{Y} podría de algún modo influir en las probabilidades asociadas a los distintos resultados de la medición de X,\mathsf{X}, independientemente del resultado real de la medición de Y.\mathsf{Y}. Si Y\mathsf{Y} resultara estar en un lugar lejano, como en otra galaxia por ejemplo, esto permitiría una señalización más rápida que la luz — algo que rechazamos según nuestra comprensión de la física. Otra forma de entender esto surge de la interpretación de la probabilidad como reflejo de un grado de creencia. El mero hecho de que alguien más pudiera decidir observar Y\mathsf{Y} no puede cambiar el estado clásico de X,\mathsf{X}, por lo que sin ninguna información sobre lo que hicieron o no vieron, las creencias de uno sobre el estado de X\mathsf{X} no deberían cambiar como resultado.

Ahora bien, dado el supuesto de que solo se mide X\mathsf{X} y Y\mathsf{Y} no, puede seguir existiendo incertidumbre sobre el estado clásico de Y.\mathsf{Y}. Por esta razón, en lugar de actualizar nuestra descripción del estado probabilístico de (X,Y)(\mathsf{X},\mathsf{Y}) a ab\vert ab\rangle para alguna selección de aΣa\in\Sigma y bΓ,b\in\Gamma, debemos actualizar nuestra descripción de modo que esta incertidumbre sobre Y\mathsf{Y} quede correctamente reflejada.

La siguiente fórmula de probabilidad condicional refleja esta incertidumbre.

Pr(Y=bX=a)=Pr((X,Y)=(a,b))Pr(X=a) \operatorname{Pr}(\mathsf{Y} = b \,\vert\, \mathsf{X} = a) = \frac{ \operatorname{Pr}\bigl((\mathsf{X},\mathsf{Y}) = (a,b)\bigr) }{ \operatorname{Pr}(\mathsf{X} = a) }

Aquí, la expresión Pr(Y=bX=a)\operatorname{Pr}(\mathsf{Y} = b \,\vert\, \mathsf{X} = a) denota la probabilidad de que Y=b\mathsf{Y} = b condicionada a (o dado que) X=a.\mathsf{X} = a. Técnicamente hablando, esta expresión solo tiene sentido si Pr(X=a)\operatorname{Pr}(\mathsf{X}=a) es no nulo, pues si Pr(X=a)=0,\operatorname{Pr}(\mathsf{X}=a) = 0, entonces estaríamos dividiendo entre cero y obtendríamos la forma indeterminada 00.\frac{0}{0}. Esto no es un problema, sin embargo, porque si la probabilidad asociada a aa es cero, nunca obtendremos aa como resultado de una medición de X,\mathsf{X}, por lo que no necesitamos preocuparnos por esta posibilidad.

Para expresar estas fórmulas en términos de vectores de probabilidad, considera un vector de probabilidad π\vert \pi \rangle que describe un estado probabilístico conjunto de (X,Y).(\mathsf{X},\mathsf{Y}).

π=(a,b)Σ×Γpabab \vert\pi\rangle = \sum_{(a,b)\in\Sigma\times\Gamma} p_{ab} \vert ab\rangle

Medir X\mathsf{X} por sí solo produce cada posible resultado aΣa\in\Sigma con probabilidad

Pr(X=a)=cΓpac. \operatorname{Pr}(\mathsf{X} = a) = \sum_{c\in\Gamma} p_{ac}.

El vector que representa el estado probabilístico de X\mathsf{X} por sí solo viene dado entonces por

aΣ(cΓpac)a. \sum_{a\in\Sigma} \biggl(\sum_{c\in\Gamma} p_{ac}\biggr) \vert a\rangle.

Habiendo obtenido un resultado particular aΣa\in\Sigma de la medición de X,\mathsf{X}, el estado probabilístico de Y\mathsf{Y} se actualiza según la fórmula de probabilidades condicionales, de modo que queda representado por este vector de probabilidad:

ψa=bΓpabbcΓpac. \vert \psi_a \rangle = \frac{\sum_{b\in\Gamma}p_{ab}\vert b\rangle}{\sum_{c\in\Gamma} p_{ac}}.

En el caso de que la medición de X\mathsf{X} haya resultado en el estado clásico a,a, actualizamos entonces nuestra descripción del estado probabilístico del sistema conjunto (X,Y)(\mathsf{X},\mathsf{Y}) a aψa.\vert a\rangle \otimes \vert\psi_a\rangle.

Una forma de pensar en esta definición de ψa\vert\psi_a\rangle es verla como una normalización del vector bΓpabb,\sum_{b\in\Gamma} p_{ab} \vert b\rangle, donde dividimos entre la suma de las entradas de este vector para obtener un vector de probabilidad. Esta normalización tiene en cuenta efectivamente el condicionamiento al evento de que la medición de X\mathsf{X} haya producido el resultado a.a.

Como ejemplo concreto, supongamos que el conjunto de estados clásicos de X\mathsf{X} es Σ={0,1},\Sigma = \{0,1\}, el conjunto de estados clásicos de Y\mathsf{Y} es Γ={1,2,3},\Gamma = \{1,2,3\}, y el estado probabilístico de (X,Y)(\mathsf{X},\mathsf{Y}) es

π=120,1+1120,3+1121,1+161,2+161,3. \vert \pi \rangle = \frac{1}{2} \vert 0,1 \rangle + \frac{1}{12} \vert 0,3 \rangle + \frac{1}{12} \vert 1,1 \rangle + \frac{1}{6} \vert 1,2 \rangle + \frac{1}{6} \vert 1,3 \rangle.

Nuestro objetivo será determinar las probabilidades de los dos posibles resultados (00 y 11), y calcular cuál es el estado probabilístico resultante de Y\mathsf{Y} para los dos resultados, suponiendo que se mide el sistema X.\mathsf{X}.

Usando la bilinealidad del producto tensorial, y específicamente el hecho de que es lineal en el segundo argumento, podemos reescribir el vector π\vert \pi \rangle de la siguiente manera:

π=0(121+1123)+1(1121+162+163). \vert \pi \rangle = \vert 0\rangle \otimes \biggl( \frac{1}{2} \vert 1 \rangle + \frac{1}{12} \vert 3 \rangle\biggr) + \vert 1\rangle \otimes \biggl( \frac{1}{12} \vert 1 \rangle + \frac{1}{6} \vert 2\rangle + \frac{1}{6} \vert 3 \rangle\biggr).

En palabras, lo que hemos hecho es aislar los vectores de la base estándar distintos para el primer sistema (es decir, el que se mide), tensorizando cada uno con la combinación lineal de vectores de la base estándar del segundo sistema que obtenemos al seleccionar las entradas del vector original que son consistentes con el estado clásico correspondiente del primer sistema. Un momento de reflexión revela que esto siempre es posible, independientemente del vector con el que hayamos comenzado.

Habiendo expresado nuestro vector de probabilidad de esta manera, los efectos de medir el primer sistema se vuelven fáciles de analizar. Las probabilidades de los dos resultados se pueden obtener sumando las probabilidades entre paréntesis.

Pr(X=0)=12+112=712Pr(X=1)=112+16+16=512 \begin{aligned} \operatorname{Pr}(\mathsf{X} = 0) & = \frac{1}{2} + \frac{1}{12} = \frac{7}{12}\\[3mm] \operatorname{Pr}(\mathsf{X} = 1) & = \frac{1}{12} + \frac{1}{6} + \frac{1}{6} = \frac{5}{12} \end{aligned}

Estas probabilidades suman uno, como era de esperar — pero esto es una verificación útil de nuestros cálculos.

Y ahora, el estado probabilístico de Y\mathsf{Y} condicionado a cada posible resultado se puede inferir normalizando los vectores entre paréntesis. Es decir, dividimos estos vectores entre las probabilidades asociadas que acabamos de calcular, de modo que se conviertan en vectores de probabilidad.

Así, condicionado a que X\mathsf{X} sea 0,0, el estado probabilístico de Y\mathsf{Y} se convierte en

121+1123712=671+173, \frac{\frac{1}{2} \vert 1 \rangle + \frac{1}{12} \vert 3 \rangle}{\frac{7}{12}} = \frac{6}{7} \vert 1 \rangle + \frac{1}{7} \vert 3 \rangle,

y condicionado a que la medición de X\mathsf{X} sea 1,1, el estado probabilístico de Y\mathsf{Y} se convierte en

1121+162+163512=151+252+253. \frac{\frac{1}{12} \vert 1 \rangle + \frac{1}{6} \vert 2\rangle + \frac{1}{6} \vert 3 \rangle}{\frac{5}{12}} = \frac{1}{5} \vert 1 \rangle + \frac{2}{5} \vert 2 \rangle + \frac{2}{5} \vert 3 \rangle.

Operaciones sobre estados probabilísticos

Para concluir esta discusión sobre la información clásica en sistemas múltiples, consideraremos las operaciones sobre sistemas múltiples en estados probabilísticos. Siguiendo la misma idea de antes, podemos ver los sistemas múltiples colectivamente como un único sistema compuesto, y luego recurrir a la lección anterior para ver cómo funciona esto.

Volviendo a la configuración habitual en la que tenemos dos sistemas X\mathsf{X} e Y,\mathsf{Y}, consideremos las operaciones clásicas sobre el sistema compuesto (X,Y).(\mathsf{X},\mathsf{Y}). A partir de la lección anterior y de la discusión anterior, concluimos que cualquier operación de este tipo está representada por una matriz estocástica cuyas filas y columnas están indexadas por el producto cartesiano Σ×Γ.\Sigma\times\Gamma.

Por ejemplo, supón que X\mathsf{X} e Y\mathsf{Y} son bits y considera una operación con la siguiente descripción.

Operación

Si X=1,\mathsf{X} = 1, realiza una operación NOT sobre Y.\mathsf{Y}.
De lo contrario, no hagas nada.

Esta es una operación determinista conocida como operación controlled-NOT (NOT controlado), donde X\mathsf{X} es el bit de control que determina si se debe aplicar o no una operación NOT al bit objetivo Y.\mathsf{Y}. Esta es la representación matricial de dicha operación:

(1000010000010010).\begin{pmatrix} 1 & 0 & 0 & 0\\[2mm] 0 & 1 & 0 & 0\\[2mm] 0 & 0 & 0 & 1\\[2mm] 0 & 0 & 1 & 0 \end{pmatrix}.

Su acción sobre los estados de la base estándar es la siguiente.

0000010110111110\begin{aligned} \vert 00 \rangle & \mapsto \vert 00 \rangle\\ \vert 01 \rangle & \mapsto \vert 01 \rangle\\ \vert 10 \rangle & \mapsto \vert 11 \rangle\\ \vert 11 \rangle & \mapsto \vert 10 \rangle \end{aligned}

Si intercambiáramos los roles de X\mathsf{X} e Y,\mathsf{Y}, tomando Y\mathsf{Y} como el bit de control y X\mathsf{X} como el bit objetivo, entonces la representación matricial de la operación se convertiría en

(1000000100100100)\begin{pmatrix} 1 & 0 & 0 & 0\\[2mm] 0 & 0 & 0 & 1\\[2mm] 0 & 0 & 1 & 0\\[2mm] 0 & 1 & 0 & 0 \end{pmatrix}

y su acción sobre los estados de la base estándar sería así:

0000011110101101\begin{aligned} \vert 00 \rangle & \mapsto \vert 00 \rangle\\ \vert 01 \rangle & \mapsto \vert 11 \rangle\\ \vert 10 \rangle & \mapsto \vert 10 \rangle\\ \vert 11 \rangle & \mapsto \vert 01 \rangle \end{aligned}

Otro ejemplo es la operación con la siguiente descripción:

Operación

Realiza una de las dos operaciones siguientes, cada una con probabilidad 1/2:1/2:

  1. Establece Y\mathsf{Y} igual a X.\mathsf{X}.
  2. Establece X\mathsf{X} igual a Y.\mathsf{Y}.

La representación matricial de esta operación es la siguiente:

(11212000000000012121)=12(1100000000000011)+12(1010000000000101).\begin{pmatrix} 1 & \frac{1}{2} & \frac{1}{2} & 0\\[2mm] 0 & 0 & 0 & 0\\[2mm] 0 & 0 & 0 & 0\\[2mm] 0 & \frac{1}{2} & \frac{1}{2} & 1 \end{pmatrix} = \frac{1}{2} \begin{pmatrix} 1 & 1 & 0 & 0\\[2mm] 0 & 0 & 0 & 0\\[2mm] 0 & 0 & 0 & 0\\[2mm] 0 & 0 & 1 & 1 \end{pmatrix} + \frac{1}{2} \begin{pmatrix} 1 & 0 & 1 & 0\\[2mm] 0 & 0 & 0 & 0\\[2mm] 0 & 0 & 0 & 0\\[2mm] 0 & 1 & 0 & 1 \end{pmatrix}.

La acción de esta operación sobre los vectores de la base estándar es la siguiente:

0000011200+1211101200+12111111\begin{aligned} \vert 00 \rangle & \mapsto \vert 00 \rangle\\[1mm] \vert 01 \rangle & \mapsto \frac{1}{2} \vert 00 \rangle + \frac{1}{2}\vert 11\rangle\\[3mm] \vert 10 \rangle & \mapsto \frac{1}{2} \vert 00 \rangle + \frac{1}{2}\vert 11\rangle\\[2mm] \vert 11 \rangle & \mapsto \vert 11 \rangle \end{aligned}

En estos ejemplos, simplemente estamos viendo dos sistemas juntos como un único sistema y procediendo como en la lección anterior.

Lo mismo puede hacerse para cualquier número de sistemas. Por ejemplo, imagina que tenemos tres bits y los incrementamos módulo 88 — lo que significa que pensamos en los tres bits como la codificación de un número entre 00 y 77 en notación binaria, le sumamos 11 y luego tomamos el resto al dividir por 8.8. Una forma de expresar esta operación es así:

001000+010001+011010+100011+101100+110101+111110+000111.\begin{aligned} & \vert 001 \rangle \langle 000 \vert + \vert 010 \rangle \langle 001 \vert + \vert 011 \rangle \langle 010 \vert + \vert 100 \rangle \langle 011 \vert\\[1mm] & \quad + \vert 101 \rangle \langle 100 \vert + \vert 110 \rangle \langle 101 \vert + \vert 111 \rangle \langle 110 \vert + \vert 000 \rangle \langle 111 \vert. \end{aligned}

Otra forma de expresarla es como

k=07(k+1)mod8k,\sum_{k = 0}^{7} \vert (k+1) \bmod 8 \rangle \langle k \vert,

suponiendo que hemos acordado que los números del 00 al 77 dentro de los kets se refieren a sus codificaciones binarias de tres bits. Una tercera opción es expresar esta operación como una matriz.

(0000000110000000010000000010000000010000000010000000010000000010)\begin{pmatrix} 0 & 0 & 0 & 0 & 0 & 0 & 0 & 1\\ 1 & 0 & 0 & 0 & 0 & 0 & 0 & 0\\ 0 & 1 & 0 & 0 & 0 & 0 & 0 & 0\\ 0 & 0 & 1 & 0 & 0 & 0 & 0 & 0\\ 0 & 0 & 0 & 1 & 0 & 0 & 0 & 0\\ 0 & 0 & 0 & 0 & 1 & 0 & 0 & 0\\ 0 & 0 & 0 & 0 & 0 & 1 & 0 & 0\\ 0 & 0 & 0 & 0 & 0 & 0 & 1 & 0 \end{pmatrix}

Operaciones independientes

Supón ahora que tenemos varios sistemas y realizamos independientemente distintas operaciones en cada uno de ellos por separado.

Por ejemplo, tomando la configuración habitual de dos sistemas X\mathsf{X} e Y\mathsf{Y} con conjuntos de estados clásicos Σ\Sigma y Γ,\Gamma, respectivamente, supongamos que realizamos una operación sobre X\mathsf{X} y, de manera completamente independiente, otra operación sobre Y.\mathsf{Y}. Como sabemos de la lección anterior, estas operaciones están representadas por matrices estocásticas — y para ser precisos, digamos que la operación sobre X\mathsf{X} está representada por la matriz MM y la operación sobre Y\mathsf{Y} está representada por la matriz N.N. Así, las filas y columnas de MM tienen índices que se corresponden con los elementos de Σ\Sigma y, de igual manera, las filas y columnas de NN se corresponden con los elementos de Γ.\Gamma.

Una pregunta natural que surge es la siguiente: si vemos X\mathsf{X} e Y\mathsf{Y} juntos como un único sistema compuesto (X,Y),(\mathsf{X},\mathsf{Y}), ¿cuál es la matriz que representa la acción combinada de las dos operaciones sobre este sistema compuesto? Para responder esta pregunta, debemos primero introducir los productos tensoriales de matrices, que son similares a los productos tensoriales de vectores y se definen de manera análoga.

Productos tensoriales de matrices

El producto tensorial MNM\otimes N de las matrices

M=a,bΣαabab M = \sum_{a,b\in\Sigma} \alpha_{ab} \vert a\rangle \langle b\vert

y

N=c,dΓβcdcd N = \sum_{c,d\in\Gamma} \beta_{cd} \vert c\rangle \langle d\vert

es la matriz

MN=a,bΣc,dΓαabβcdacbd M \otimes N = \sum_{a,b\in\Sigma} \sum_{c,d\in\Gamma} \alpha_{ab} \beta_{cd} \vert ac \rangle \langle bd \vert

De manera equivalente, el producto tensorial de MM y NN se define por la ecuación

acMNbd=aMbcNd\langle ac \vert M \otimes N \vert bd\rangle = \langle a \vert M \vert b\rangle \langle c \vert N \vert d\rangle

siendo verdadera para toda elección de a,bΣa,b\in\Sigma y c,dΓ.c,d\in\Gamma.

Una forma alternativa, pero equivalente, de describir MNM\otimes N es que es la única matriz que satisface la ecuación

(MN)(ϕψ)=(Mϕ)(Nψ) (M \otimes N) \bigl( \vert \phi \rangle \otimes \vert \psi \rangle \bigr) = \bigl(M \vert\phi\rangle\bigr) \otimes \bigl(N \vert\psi\rangle\bigr)

para toda elección posible de vectores ϕ\vert\phi\rangle y ψ,\vert\psi\rangle, asumiendo que los índices de ϕ\vert\phi\rangle se corresponden con los elementos de Σ\Sigma y los índices de ψ\vert\psi\rangle se corresponden con Γ.\Gamma.

Siguiendo la convención descrita anteriormente para ordenar los elementos de los productos cartesianos, también podemos escribir explícitamente el producto tensorial de dos matrices de la siguiente manera:

(α11α1mαm1αmm)(β11β1kβk1βkk)=(α11β11α11β1kα1mβ11α1mβ1kα11βk1α11βkkα1mβk1α1mβkkαm1β11αm1β1kαmmβ11αmmβ1kαm1βk1αm1βkkαmmβk1αmmβkk)\begin{gathered} \begin{pmatrix} \alpha_{11} & \cdots & \alpha_{1m} \\ \vdots & \ddots & \vdots \\ \alpha_{m1} & \cdots & \alpha_{mm} \end{pmatrix} \otimes \begin{pmatrix} \beta_{11} & \cdots & \beta_{1k} \\ \vdots & \ddots & \vdots\\ \beta_{k1} & \cdots & \beta_{kk} \end{pmatrix} \hspace{6cm}\\[8mm] \hspace{1cm} = \begin{pmatrix} \alpha_{11}\beta_{11} & \cdots & \alpha_{11}\beta_{1k} & & \alpha_{1m}\beta_{11} & \cdots & \alpha_{1m}\beta_{1k} \\ \vdots & \ddots & \vdots & \hspace{2mm}\cdots\hspace{2mm} & \vdots & \ddots & \vdots \\ \alpha_{11}\beta_{k1} & \cdots & \alpha_{11}\beta_{kk} & & \alpha_{1m}\beta_{k1} & \cdots & \alpha_{1m}\beta_{kk} \\[2mm] & \vdots & & \ddots & & \vdots & \\[2mm] \alpha_{m1}\beta_{11} & \cdots & \alpha_{m1}\beta_{1k} & & \alpha_{mm}\beta_{11} & \cdots & \alpha_{mm}\beta_{1k} \\ \vdots & \ddots & \vdots & \hspace{2mm}\cdots\hspace{2mm} & \vdots & \ddots & \vdots \\ \alpha_{m1}\beta_{k1} & \cdots & \alpha_{m1}\beta_{kk} & & \alpha_{mm}\beta_{k1} & \cdots & \alpha_{mm}\beta_{kk} \end{pmatrix} \end{gathered}

Los productos tensoriales de tres o más matrices se definen de manera análoga. Si M0,,Mn1M_0, \ldots, M_{n-1} son matrices cuyos índices se corresponden con los conjuntos de estados clásicos Σ0,,Σn1,\Sigma_0,\ldots,\Sigma_{n-1}, entonces el producto tensorial Mn1M0M_{n-1}\otimes\cdots\otimes M_0 se define por la condición de que

an1a0Mn1M0bn1b0=an1Mn1bn1a0M0b0\langle a_{n-1}\cdots a_0 \vert M_{n-1}\otimes\cdots\otimes M_0 \vert b_{n-1}\cdots b_0\rangle = \langle a_{n-1} \vert M_{n-1} \vert b_{n-1} \rangle \cdots\langle a_0 \vert M_0 \vert b_0 \rangle

para toda elección de estados clásicos a0,b0Σ0,,an1,bn1Σn1.a_0,b_0\in\Sigma_0,\ldots,a_{n-1},b_{n-1}\in\Sigma_{n-1}. Alternativamente, los productos tensoriales de tres o más matrices pueden definirse de forma recursiva, en términos de productos tensoriales de dos matrices, de manera similar a lo que observamos para los vectores.

Se dice que el producto tensorial de matrices es multiplicativo porque la ecuación

(Mn1M0)(Nn1N0)=(Mn1Nn1)(M0N0) (M_{n-1}\otimes\cdots\otimes M_0)(N_{n-1}\otimes\cdots\otimes N_0) = (M_{n-1} N_{n-1})\otimes\cdots\otimes (M_0 N_0)

es siempre verdadera, para cualquier elección de matrices M0,,Mn1M_0,\ldots,M_{n-1} y N0,Nn1,N_0\ldots,N_{n-1}, siempre que los productos M0N0,,Mn1Nn1M_0 N_0, \ldots, M_{n-1} N_{n-1} tengan sentido.

Operaciones independientes (continuación)

Ahora podemos responder la pregunta planteada anteriormente: si MM es una operación probabilística sobre X,\mathsf{X}, NN es una operación probabilística sobre Y,\mathsf{Y}, y las dos operaciones se realizan de forma independiente, entonces la operación resultante sobre el sistema compuesto (X,Y)(\mathsf{X},\mathsf{Y}) es el producto tensorial MN.M\otimes N.

Así, tanto para los estados probabilísticos como para las operaciones probabilísticas, los productos tensoriales representan independencia. Si tenemos dos sistemas X\mathsf{X} e Y\mathsf{Y} que se encuentran independientemente en los estados probabilísticos ϕ\vert\phi\rangle y ψ,\vert\psi\rangle, entonces el sistema compuesto (X,Y)(\mathsf{X},\mathsf{Y}) se encuentra en el estado probabilístico ϕψ;\vert\phi\rangle\otimes\vert\psi\rangle; y si aplicamos operaciones probabilísticas MM y NN a los dos sistemas de forma independiente, entonces la acción resultante sobre el sistema compuesto (X,Y)(\mathsf{X},\mathsf{Y}) está descrita por la operación MN.M\otimes N.

Veamos un ejemplo que retoma una operación probabilística sobre un solo bit de la lección anterior: si el estado clásico del bit es 0,0, se deja sin cambios; y si el estado clásico del bit es 1,1, se cambia a 0 con probabilidad 1/2.1/2. Observamos que esta operación está representada por la matriz

(112012). \begin{pmatrix} 1 & \frac{1}{2}\\[1mm] 0 & \frac{1}{2} \end{pmatrix}.

Si esta operación se realiza sobre un bit X,\mathsf{X}, y una operación NOT se realiza (de forma independiente) sobre un segundo bit Y,\mathsf{Y}, entonces la operación conjunta sobre el sistema compuesto (X,Y)(\mathsf{X},\mathsf{Y}) tiene la representación matricial

(112012)(0110)=(01012101200001200120). \begin{pmatrix} 1 & \frac{1}{2}\\[1mm] 0 & \frac{1}{2} \end{pmatrix} \otimes \begin{pmatrix} 0 & 1\\[1mm] 1 & 0 \end{pmatrix} = \begin{pmatrix} 0 & 1 & 0 & \frac{1}{2} \\[1mm] 1 & 0 & \frac{1}{2} & 0 \\[1mm] 0 & 0 & 0 & \frac{1}{2} \\[1mm] 0 & 0 & \frac{1}{2} & 0 \end{pmatrix}.

Por inspección, vemos que esta es una matriz estocástica. Esto siempre será así: el producto tensorial de dos o más matrices estocásticas siempre es estocástico.

Una situación común que encontramos es aquella en la que se realiza una operación sobre un sistema y no se hace nada con el otro. En tal caso, se sigue exactamente la misma prescripción, teniendo en cuenta que no hacer nada está representado por la matriz identidad. Por ejemplo, reiniciar el bit X\mathsf{X} al estado 00 y no hacer nada sobre Y\mathsf{Y} da como resultado la operación probabilística (y de hecho determinista) sobre (X,Y)(\mathsf{X},\mathsf{Y}) representada por la matriz

(1100)(1001)=(1010010100000000). \begin{pmatrix} 1 & 1\\[1mm] 0 & 0 \end{pmatrix} \otimes \begin{pmatrix} 1 & 0\\[1mm] 0 & 1 \end{pmatrix} = \begin{pmatrix} 1 & 0 & 1 & 0 \\[1mm] 0 & 1 & 0 & 1 \\[1mm] 0 & 0 & 0 & 0 \\[1mm] 0 & 0 & 0 & 0 \end{pmatrix}.