Diese Präsentation wurde erfolgreich gemeldet.
Wir verwenden Ihre LinkedIn Profilangaben und Informationen zu Ihren Aktivitäten, um Anzeigen zu personalisieren und Ihnen relevantere Inhalte anzuzeigen. Sie können Ihre Anzeigeneinstellungen jederzeit ändern.

Thesis nelsonjr uc_samuel_flores_pymsm

37 Aufrufe

Veröffentlicht am

An undergoing thesis about the problem of the existence of a Yang-Mills theory and the mass gap together with an introductory explanation to the topics needed to understand it as for example: abstract algebra, topology, differential geometry, field theory and Feynman diagrams.

Veröffentlicht in: Wissenschaft
  • Als Erste(r) kommentieren

  • Gehören Sie zu den Ersten, denen das gefällt!

Thesis nelsonjr uc_samuel_flores_pymsm

  1. 1. Índice general 1 Tópicos de álgebra abstracta 4 1.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 1.2 Semigrupo, Monoide y Grupos . . . . . . . . . . . . . . . . . . . 4 1.2.1 Propiedades de los grupos . . . . . . . . . . . . . . . . . . 7 1.2.2 Caracterización de los subgrupos . . . . . . . . . . . . . . 7 1.2.3 Homomorfismo de grupos . . . . . . . . . . . . . . . . . . 7 1.3 Anillos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8 1.4 Módulos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 1.5 Espacio vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 1.5.1 Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . 11 1.6 Álgebras graduadas . . . . . . . . . . . . . . . . . . . . . . . . . . 11 1.7 Espacio de productos internos . . . . . . . . . . . . . . . . . . . . 11 2 Tópicos de topología 12 2.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12 2.2 Nociones topológicas . . . . . . . . . . . . . . . . . . . . . . . . . 12 2.3 Topología (Estructura) . . . . . . . . . . . . . . . . . . . . . . . . 13 2.4 Topología relativa . . . . . . . . . . . . . . . . . . . . . . . . . . . 13 2.5 Métrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 2.6 Continuidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14 2.7 Cubrimiento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 2.8 Partición de la unidad . . . . . . . . . . . . . . . . . . . . . . . . 16 3 Tópicos de geometría Diferencial 17 3.1 Variedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 3.1.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . 17 3.1.2 Álgebra . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 3.2 Fibrados y conexiones . . . . . . . . . . . . . . . . . . . . . . . . 18 3.2.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . 18 3.2.2 Álgebra . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 3.2.3 Fibrado vectorial . . . . . . . . . . . . . . . . . . . . . . . 19 3.2.4 Fibrado principal . . . . . . . . . . . . . . . . . . . . . . . 19 3.3 Clases características . . . . . . . . . . . . . . . . . . . . . . . . . 20 3.3.1 Categoría . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 1
  2. 2. 3.3.2 Funtor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 3.3.3 Clase característica . . . . . . . . . . . . . . . . . . . . . . 20 4 Tópicos de Teoría de Campos 21 4.1 Aspectos clásicos . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 4.1.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . 21 4.1.2 Electrodinámica clásica como funciones reales . . . . . . . 23 4.1.3 Formulación con cálculo vectorial de la electrodinámica clásica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26 4.1.4 Formulación con potenciales de la electrodinámica clásica. 26 4.1.5 Formulación covariante de la electrodinámica. . . . . . . . 28 4.2 Aspectos cuánticos . . . . . . . . . . . . . . . . . . . . . . . . . . 31 4.2.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . 31 4.2.2 Cuantización canónica de la electrodinámica. . . . . . . . 33 4.2.3 Interacción fuerte . . . . . . . . . . . . . . . . . . . . . . . 35 5 Integrales de Feynman 48 5.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 5.2 Probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 5.3 Diagramas de Feynman . . . . . . . . . . . . . . . . . . . . . . . 49 5.4 Reglas de Feynman . . . . . . . . . . . . . . . . . . . . . . . . . . 50 5.5 Diagramas de Feynman y la cromo-dinámica cuántica. . . . . . . 52 6 Problema del salto de masa de Yang-Mills 53 6.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53 6.2 Formulación del problema de: ”existencia de Yang-Mills y el salto de masa” . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 6.3 Axiomas de Wightman . . . . . . . . . . . . . . . . . . . . . . . . 56 6.3.1 W0: consideraciones propias de la mecánica cuántica re- lativista . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56 6.3.2 W1: consideraciones acerca del dominio y la continuidad de los campos . . . . . . . . . . . . . . . . . . . . . . . . . 57 6.3.3 W2: ley de transformación del campo . . . . . . . . . . . 57 6.3.4 W3: conmutatividad local o causalidad microscópica . . . 57 6.4 El salto de masa . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 7 Observaciones finales y conclusiones 59 7.1 Recomendaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 Índice alfabético 62 2
  3. 3. Describir el problema de la existencia de una teoría cuántica de Yang-Mills y el Salto de Masa (PYMySM) a un nivel elemental. Nelson Antonio Sandoval Puente. 14 de septiembre de 2020
  4. 4. Resumen Se presenta el problema de demostrar la existencia de campos de Yang-Mills y el salto de masa observado en los gluones, se discute cuanto ha avanzado la ciencia en su resolución y se da una introducción a las herramientas teóricas necesarias para entender dicho problema a un nivel elemental, es decir, corres- pondiente al pregrado de las carreras afines a este problema. Estas herramientas son: álgebra abstracta, topología, geometría diferencial, diagramas de Feymann y teoría cuántica de campos. 1
  5. 5. Agradecimientos 2
  6. 6. Introducción En este capítulo se explican las propiedades de las estructuras algebraicas utilizadas actualmente para describir el problema de la existencia de una teoría cuántica de Yang-Mills y el Salto de Masa (PYMySM). De esta manera se logran adquirir las herramientas matemáticas suficientes para entender el estado actual de las investigaciones acerca del PYMySM que es un paso hacia tratar de abordar soluciones para resolverlo. 3
  7. 7. Capítulo 1 Tópicos de álgebra abstracta 1.1 Introducción 1.2 Semigrupo, Monoide y Grupos Sea G un conjunto no vacío y n ∈ N con n ≥ 1. Una operación n-aria en G es una función • : Gn → G donde Gn representa el producto cartesiano y finito de conjuntos, es decir Gn = G × · · · × G. Si n = 2, entonces la operación 2-aria en G se denomina operación binaria en G. La notación que emplearemos para denotar la imagen de (x, y) ∈ G × G me- diante la operación binaria en G es la multiplicativa, es decir x•y que representa el producto de x e y. Definición 1.1. Un Semigrupo es un conjunto no vacío G junto con una operación binaria en G que satisface el axioma de asociatividad, es decir para todo a, b, c ∈ G se tiene que: (a • b) • c = a • (b • c) (1.1) Ejemplo 1.1.1. En el conjunto de los enteros Z, definimos • de la siguiente forma: para todo a, b ∈ Z se define a • b = a + b + 3. Entonces el par (Z, •) es un semigrupo en Z. Veamos si • satisface el axioma de asociatividad, debemos verificar que para todo a, b, c ∈ Z se cumple que (a • b) • c = a • (b • c). En efecto, (a • b) • c = (a • b) + c + 3 (1.2) = (a + b + 3) + c + 3 (1.3) = a + b + 6 (1.4) 4
  8. 8. Ahora bien a • (b • c) = a + (b • c) + 3 (1.5) = a + (b + c + 3) + 3 (1.6) = a + +b + 6 (1.7) Por lo tanto • es una operación binaria asociatividad y en consecuencia el par (Z, •) es un semigrupo en Z. Ejemplo 1.1.2. Cualquier conjunto a es un semigrupo con un elemento junto con la operación a · a = a. Ejemplo 1.1.3. El conjunto de los números naturales N sin el 0 junto con la operación aditiva es un semigrupo. Ejemplo 1.1.4. El conjunto de las matrices cuadradas de números reales junto con la operación multiplicación de matrices es un semigrupo. Definición 1.2. Un Semigrupo Abeliano es un semigrupo tal que su ope- ración binaria en G, satisface el axioma de conmutatividad, es decir, para todo a, b ∈ G se tiene que: a • b = b • a (1.8) Ejemplo 1.2.1. El par (Z, •) con a•b = a+b+3 del ejemplo anterior es además un semigrupo abeliano en Z. La razón es que se cumple que a + b = b + a, es decir la operación es conmutativa. Ejemplo 1.2.2. El conjunto de los números naturales N sin el 0 junto con la operación aditiva también es un semigrupo abeliano porque esta operación también es conmutativa. Ejemplo 1.2.3. El conjunto de las matrices cuadradas de números reales junto la operación de multiplicación de matrices no es un semigrupo abeliano porque esta operación no es conmutativa para las matrices. Definición 1.3. Un Monoide es un semigrupo G donde la operación binaria en G satisface el axioma del elemento neutro bilátero (izquierda y derecha), es decir existe e ∈ G tal que para todo a ∈ G se satisface: e • a = a (1.9) a • e = a (1.10) es decir e • a = a • e = a (1.11) Ejemplo 1.3.1. El par (Z, •) con a, b ∈ Z definido por a • b = a + b + 3 es un monoide en Z. En efecto notemos que debemos probar que para todo a ∈ Z existe e ∈ Z tal que a • e = e • a = a. Construyamos el elemento e ∈ Z de la siguiente forma, sabemos que debe satisfacer la ecuación a • e = a, entonces por 5
  9. 9. definición de • resulta que a • e = a + e + 3 y debe ser igual a a. Por otro lado como a ∈ Z ocurre que a = a + 0, es decir, a + e + 3 = a + 0 por el axioma asociativo ocurre que a + (e + 3) = a + 0. Si a = a, entonces (e + 3) = 0, esto implica que e = −3 ∈ Z. De manera similar ocurre con e • a = a. Por lo tanto el par Z, • es un monoide en Z. Ejemplo 1.3.2. El conjunto de los números naturales N con la operación aditiva es un monoide donde elemento neutro es el 0. Ejemplo 1.3.3. También, el conjunto de los números naturales N con la ope- ración multiplicativa es un monoide donde el elemento neutro es el 1. Definición 1.4. Un Grupo es un monoide G tal que la operación binaria en G satisface el axioma del elemento inverso bilátero, es decir, para todo a ∈ G existe b ∈ G tal que: a • b = e (1.12) b • a = e (1.13) es decir a • b = b • a = e (1.14) Ejemplo 1.4.1. Sea G = 0 y consideremos el conjunto de todas las funciones biyectivas de G en G, denotado por B(G). Entonces el par (B(G), ◦) donde ◦ denota la composición de funciones es un grupo, llamado grupo de transfor- maciones de G. Ejemplo 1.4.2. El conjunto de los números enteros Z junto con la operación adición es un grupo donde elemento neutro es 0. Ejemplo 1.4.3. El conjunto de las matrices cuadradas de elementos reales forman un grupo bajo la operación multiplicación donde el elemento neutro es la matriz identidad. Definición 1.5. Un Grupo abeliano es un grupo G tal que la operación binaria en G satisface el axioma de conmutatividad. Ejemplo 1.5.1. El par (Z, •) con a, b ∈ Z definido por a•b = a+b+3 constituye un grupo (aditivo) abeliano. Ejemplo 1.5.2. El conjunto de las matrices cuadradas de elementos reales bajo la operación multiplicación no es un grupo abeliano porque la operación multiplicación no es conmutativa. Ejemplo 1.5.3. El conjunto de las matrices cuadradas diagonales de elementos reales junto con la operación multiplicación de matrices es un grupo abeliano. Definición 1.6. Sea G un grupo y H un subconjunto no vacío de G, decimos que H es un subgrupo de G si y sólo si H es grupo. Definición 1.7. Un grupo trivial es un grupo formado por un conjunto cuyo único elemento es el elemento neutro. 6
  10. 10. 1.2.1 Propiedades de los grupos A continuación enunciaremos un teorema que enuncia las propiedades más básicas en un grupo. Para la demostración del mismo consultar [12]. Definición 1.8. Sea G un monoide, entonces el elemento identidad de G que lo denotaremos por e es único. Si G es un grupo, entonces (i) Los elementos neutro e inverso de un grupo que lo denotaremos por e y a−1 con a ∈ G, son únicos. (ii) Para cada a ∈ G, la ecuación a • a = a implica que a = e. (iii) Para cada a ∈ G, (a−1 )−1 = a. (iv) El inverso del producto de dos elementos diferentes de un grupo es igual al producto de los inversos, es decir para cada a, b ∈ G, (a • b)−1 = b−1 • a−1 . (v) En un grupo sus elementos satisfacen la condición de regularidad, es decir vale la ley de cancelación en el grupo. (vi) Sean a y b elementos de G, las ecuaciones a • x = b y y • a = b, tienen solución única en G, es decir x = a−1 • b y y = b • a−1 . Definición 1.9. Sea H un conjunto no vacío del un grupo G, entonces H es un subgrupo de G si y sólo si a • b ∈ H para todo a, b ∈ H. Para la demostración ver [12]. 1.2.2 Caracterización de los subgrupos Definición 1.10. (Intersección de subgrupos) Sean (G, •) un grupo, lo denotaremos por G y {Gi}i∈I una familia no vacía de subgrupos de G. Entonces la intersección de toda familia no vacía de subgrupos de G, que la denotamos por i∈I Gi es un subgrupo de G. Consultar para la demostración ver [12]. Definición 1.11. (Unión finita de subgrupos:) Sea un grupo G y {Gi}n i=1 una familia finita no vacía de subgrupos de G. Entonces la unión de toda familia finita no vacía de subgrupos de G, que la denotamos por n i=1 Gi es un subgrupo de G. 1.2.3 Homomorfismo de grupos Sean los grupos (G, •) y (G , • ) Definición 1.12. La función f : G → G es un homomorfismo de grupo si y sólo si la imagen de la composición en G es igual a la composición de las imágenes en G . Es decir: f : G → G es un homomorfismo ⇐⇒ f(a • b) = f(a) • f(b) (1.15) 7
  11. 11. Ejemplo 1.12.1. Sean los grupos aditivos (R2×2 , +) y (R, +) y sea la función f : R2×2 definida por: f a b c d = a + c Entonces f es un homomorfismo, pues al aplicar la definición de suma de ma- trices junto las propiedades de conmutatividad y asociatividad de la suma en R, en la definición de f se cumple que dadas 2 matrices A y B entonces f(A + B) = f(A) + f(B). Definición 1.13 (Homomorfismos especiales). Sean G y G dos grupos y f : G → G un homomorfismo respecto de • y • . Entonces: 1. f es un monomorfismo si y solo si f es inyectiva. 2. f es un epimorfismo si y solo si f es sobreyectiva. 3. f es un isomorfismo si y solo si f es biyectiva. 4. f es un endomorfismo si y solo si G = G . 5. f es un automorfismo si y solo si f es un endomorfismo biyectivo. Definición 1.14. (Conjugación o automorfismo interno:) Sea G un grupo y g ∈ G, entonces la función: ϕg : G → G ϕg(x) : g−1 xg es llamada conjugación a derecha por g. Esta función es un endomorfismo de G ya que para todo x1, x2 ∈ G se tiene que: ϕ(x1x2) = g−1 x1x2g = (g−1 x1g)(g−1 x2g) = ϕg(x1)ϕg(x2) Definición 1.15. (Subgrupo normal:) Es un subgrupo que es invariante bajo la conjugación de los miembros del grupo del que forma parte. Es decir, un subgrupo N del grupo G es normal en G si y solo si, gng−1 ∈ N para todo g ∈ G y n ∈ N. Definición 1.16. (Grupo simple:) Es un grupo no trivial que solo tiene como subgrupos normales al grupo trivial y a el mismo. 1.3 Anillos En esta sección describimos de manera breve, los conceptos más básicos presentes en la teoría de Anillos los cuales enunciamos a continuación. 8
  12. 12. Definición 1.17. Un anillo es un conjunto no vacío A junto con dos operacio- nes binarias en A, usualmente denotadas por adición (+) y multiplicación (•) que satisfacen las siguientes propiedades. 1. El conjunto con la primera operación, (A, +) es un grupo abeliano. 2. El conjunto con la segunda operación, (A, •) es un semigrupo. 3. La segunda operación es distributiva a derecha y a izquierda respecto de la primera operación. Es decir, para todo a, b, c ∈ A se cumple que: a • (b ∗ c) = a • b ∗ a • c (b ∗ c) • a = b • a ∗ c • a (1.16) 4. Para todo elemento a de A, existe un elemento llamado identidad y denotado por 1A de A tal que a • 1A = 1A • a = a. Denotaremos a el anillo (A, +, •) simplemente por A. Ejemplo 1.17.1. (N, +, ·) no es anillo, pues no existe neutro para la adición. Ejemplo 1.17.2. (N0, +, ·) no es anillo, porque los elementos no nulos N0 carecen de inverso aditivo. Definición 1.18. Sea A un anillo, decimos que: 1. A es anillo conmutativo si la segunda operación de A es conmutativa. 2. A es anillo con unidad si existe un elemento neutro en A, que denota- remos e para la segunda operación de A. 3. A es un anillo con división si además de ser anillo con unidad cumple con que para todo elemento no nulo de A, existe un elemento inverso que también pertenece a A. Ejemplo 1.18.1. (Z, +, ·) es un anillo conmutativo y con unidad. Definición 1.19. Sea I un subconjunto no vacío de un anillo A. Si I es un subgrupo aditivo de A entonces: 1. I es un ideal por la izquierda de A si el producto por la izquierda de un elemento de I por un elemento de A pertenece a I. Esto es: ∀(a, x) ∈ A × I : a × x ∈ I 2. I es un ideal por la derecha de A si en cambio el producto por la derecha de un elemento de I por un elemento de A pertenece a I. ∀(x, a) ∈ I × A : x × a ∈ I 3. Un ideal bilátero es un ideal por la derecha y por la izquierda. En el caso de un anillo conmutativo las nociones de ideal por la izquierda, derecha o bilátero son equivalentes y por lo tanto se habla solo de ideal. 9
  13. 13. 1.4 Módulos Definición 1.20. Un R-módulo a izquierda denotado por A, es un anillo R y un grupo abeliano aditivo A junto con una función R × A → A tal que para todo r, s ∈ R y para todo a, b ∈ A: r(a + b) = ra + rb (1.17) (r + s)a = ra + sa (1.18) r(sa) = (rs)a (1.19) Ejemplo 1.20.1. Cada grupo abeliano M es un módulo sobre el anillo de los números enteros Z si se define nx = x + x + · · · + x (n sumandos) para n > 0, 0x = 0 y (−n)x = −(nx) para n < 0. Definición 1.21. Un R-módulo a derecha se define de la misma manera que el R-módulo a izquierda con la diferencia de que ahora la función que relaciona al anillo y al grupo abeliano es A × R → A. Ejemplo 1.21.1. Si R es cualquier anillo e I es cualquier ideal izquierdo en R, entonces I es un módulo izquierdo sobre R. Lógicamente, los ideales derechos son módulos derechos. Definición 1.22. Un R-módulo unitario es un R-módulo el cuál tiene un anillo unitario con un elemento unitario denotado por 1R. Entonces para todo a ∈ A se cumple que 1Ra = a. Ejemplo 1.22.1. Todo grupo abeliano aditivo G es un Z-módulo unitario, con na (n ∈ Z, a ∈ G). Definición 1.23. Sea A un anillo con unidad. Entonces un módulo F sobre A es un módulo libre en el conjunto X si y solo si satisface las siguientes condiciones: 1. F tiene una base no vacía. 2. F es la suma directa interna de una familia de A-módulos cíclica, donde cada una es isomórfica como un A-módulo a izquierda de A. 3. F es un A-módulo isomórfico a la suma directa de las copias del A-módulo A. 4. Existe un conjunto no vacío X y una función i : X → F con la propiedad de que dado un A-módulo unitario y una función f : X → A, existe un único homomorfismo A-módulo ¯f : F → A tal que ¯fi = f. 1.5 Espacio vectorial Definición 1.24. Un espacio vectorial a izquierda que denotaremos por Vi o simplemente V es un R-módulo tal que anillo asociado es un anillo con división. Definición 1.25. Sea D un anillo con división. Entonces todo D-módulo libre es un espacio vectorial sobre D. 10
  14. 14. 1.5.1 Ejemplos 1. El conjunto de n-tuplas donde cada elemento pertenece al cuerpo F. Es decir (a1, a2, · · · , an) donde cada ai ∈ F. 2. El conjunto de todas las funciones de cualquier conjunto fijo Ω sobre un cuerpo forma un espacio vectorial F con la suma y multiplicación de fun- ciones usual definidas de la forma siguiente: (f + g)w = f(w) + g(w) (f · g)w = f(w) · g(w) 1.6 Álgebras graduadas Definición 1.26. [10]Sea K un cuerpo, un álgebra sobre un cuerpo K consiste en lo siguiente: • Un espacio vectorial V sobre K. • Una operación binaria, llamada multiplicación de vectores, la cuál para todo c ∈ K y α, β, γ ∈ V cumple con lo siguiente: 1. (cα)β = c(αβ) 2. (α + β)γ = αγ + βγ 3. α(β + γ) = αβ + αγ 1.7 Espacio de productos internos También conocido como espacio prehiltbertiano, es un espacio vectorial (que suele ser Rn o Cn junto con una operación adicional llamada producto escalar o producto interno. Su definición formal es la siguiente: Definición 1.27. Sea un campo vectorial V sobre un cuerpo F. Sea un mapa definido como ·, · : V × V → F denominado producto interno o producto escalar que satisface las siguientes propiedades para todo x, y, z ∈ V y a ∈ F: • Hermiticidad o simetría conjugada. Es decir, para todo x, y ∈ V entonces x, y = y, x . • Sesquilinealidad o linealidad en el primer argumento. Es decir que para todo a ∈ K y para todo x, y ∈ V , entonces ax, y = a x, y . • Es positivamente definida. Para todo x ∈ V , entonces x, x ≥ 0. 11
  15. 15. Capítulo 2 Tópicos de topología 2.1 Introducción Para responder preguntas tales como ¿que es el espacio? o ¿que es una di- mensión? hace falta estudiar estos temas de una manera independiente de lo que es la forma, el tamaño y la posición de las figuras geométricas. Por esa razón surge la topología, que literalmente significa “el estudio del espacio”, como rama separada de las matemáticas a comienzos del siglo XX d.C. En ella se estudian las propiedades del espacio tales como conexión y compacidad para averiguar cuales se conservan bajo deformaciones continuas. Como ejemplo de su utilidad se puede considerar un espacio cuya forma es una banda de material. Entonces se puede conocer que propiedades no cambian cuando dicha banda se deforma (estira, dobla o tuerce) pero no cuando se rompe ya que esto es una deformación no continua. La meta es llegar a conclusiones que se pueden aplicar a un tipo de objetos independientemente de que forma tenga el objeto. Hay que aclarar que el término topología se refiere tanto a la rama de las matemáticas como a una estructura estudiada por dicha rama. Existen varias maneras de definir los conceptos de la topología. A continua- ción se explican las nociones topológicas que están de acuerdo con la definición de conjuntos abiertos. 2.2 Nociones topológicas 1. Topología (Rama de las matemáticas): es el estudio de aquellas pro- piedades cualitativas de los objetos denominados espacios topológicos que son invariantes bajo ciertas transformaciones denominadas mapas continuos, especialmente bajo los homeomorfismos. 2. Ejemplos de estudio: 12
  16. 16. • Objetos con formas diferentes como un cuadrado y un círculo tienen en común que ambos dividen el plano en 2 partes, la parte interior delimitada por el borde del objeto y la exterior. • En el problema de los puentes de Könisberg, se demostró que no se pueden recorrer todos los 7 puentes de la ciudad de Könisberg cru- zando cada uno como máximo una vez. La demostración no se hizo conociendo la forma de los caminos de la ciudad, sino las propieda- des de conexión entre las partes de la ciudad. En otras palabras se requería saber que puentes conectaban cuales partes de la ciudad. 2.3 Topología (Estructura) Definición 2.1. Un espacio topológico es un par ordenado (X, TX) donde X es un conjunto y TX es una familia de subconjuntos de X que satisfacen los siguientes axiomas: 1. El conjunto vacío pertenece a TX. Es decir, φ ∈ TX. 2. La intersección de cualquier número finito de elementos de TX pertenecen a TX. Es decir, si {TXi}n i=1 es una familia finita no vacía de elementos de TX entonces n i=1 TXi ∈ TX. 3. Cualquier unión arbitraria de los elementos de TX pertenecen a TX. Es decir, si I es un conjunto de índices y {TXi}i∈I es una familia no vacía de elementos de TX entonces i∈I TXi ∈ TX. Los elementos de TX se denominan conjuntos T-abiertos. Un conjunto cerrado es un conjunto abierto cuyo complemento también es abierto. La familia TX se denomina una topología en X. En algunos textos se usa X para indicar (X, TX), es decir, el conjunto X con una topología TX que como par ordenado forman el espacio topológico. Ejemplo 2.1.1. Dado X = {1, 2, 3} entonces: • TX = {φ, {1, 2, 3}} forma una topología de X llamada topología trivial. • TX = {φ, {1}, {2}, {1, 2}, {1, 2, 3}} forma otra topología de X. • TX = {φ, {1}, {2}, {1, 2, 3}} no forma una topología de X porque la unión de los subconjuntos {1} y {2} de TX, es decir, el conjunto {1, 2} no per- tenece a TX. 2.4 Topología relativa Definición 2.2. Sea (X, TX) un espacio topológico. S ⊂ X será un subespacio de X, si y solo si, S es un espacio topológico para la topología inducida por X 13
  17. 17. en S, llamada topología relativa denotada por TXs. Esto se cumple para los subconjuntos de S que son la intersección entre S y un conjunto abierto de TX. En notación de conjuntos se expresa como: TXs = {S ∩ U|U ∈ TX} (2.1) 2.5 Métrica Definición 2.3. Sea M un conjunto y d una función que satisface los siguientes axiomas: 1. d : M × M → R 2. d(x, y) ≥ 0 (no negativa) 3. d(x, y) = 0 ⇐⇒ x = y (identidad de los indiscernibles) 4. d(x, y) = d(y, x) (simetría) 5. d(x, z) ≤ d(x, y) + d(y, z) (desigualdad triangular) Entonces el par ordenado (M, d) es llamado un espacio métrico y la métrica de dicho espacio es d. Definición 2.4. Una secuencia en un espacio métrico es una sucesión de Cauchy si por cada número real positivo r existe un número entero positivo N tal que para todos los enteros positivos m, n > N, entonces d(xm, xn) < r. Definición 2.5. Un espacio métrico (X, d) es completo si toda secuencia de Cauchy de puntos en M tiene un límite que también está en M. Definición 2.6. Un espacio de Hilbert es un espacio de productos internos real o complejo que también es un espacio métrico completo con respecto a la métrica inducida por el producto interno. Esta métrica es la norma definida como ||x|| = x, x . 2.6 Continuidad Es una propiedad de las funciones continuas que, intuitivamente, son aquellas para las cuales un cambio suficientemente pequeño en su entrada produce un cambio arbitrariamente pequeño en su salida. Requiere de los conceptos de vecindad e imágenes para su definición. Definición 2.7. (Vecindad de un punto: ) Sea (X, TX) un espacio topo- lógico y p un elemento de dicho espacio, entonces, una vecindad de p es un subconjunto V de X que incluye a un conjunto abierto U de X el cuál contiene a p. 14
  18. 18. Es decir: p ∈ U ⊆ V ⊆ X (2.2) Si a su vez, V es un conjunto abierto de X entonces es llamada una vecindad abierta. Definición 2.8. (Vecindad de un conjunto:) Sea S un subconjunto del espacio topológico X. Entonces una vecindad de S es un conjunto V que incluye un conjunto abierto U que contiene S. Definición 2.9. (Continuidad en un punto:) Una función f : X → Y es continua en un punto si para todo x ∈ X y para toda vecindad N de f(x) existe una vecindad M de x tal que f(M) ⊆ N. Definición 2.10. (Propiedades de una función continua): Si f : X → Y es continua, entonces: • La composición g ◦ f : X → Z es continua si g : Y → Z es continua. • f(X) es compacta si X es compacta. • f(X) es conexa si X es conexo. 2.7 Cubrimiento Definición 2.11. Una familia de subconjuntos C de un conjunto X es un cubrimiento de X si y solo si la unión de los elementos de C contiene a X. Esto es: Sea C = {Uα : α ∈ A} una familia indexada de conjuntos Uα. Entonces C es un cubrimiento de X ⇐⇒ C ⊆ α∈A Uα Definición 2.12. Si C es un cubrimiento de X, entonces un conjunto D ⊂ C es un subcubrimiento de C si todavía cubre a X. Definición 2.13. Si C es un cubrimiento de X tal que cada uno de sus elemen- tos son conjuntos abiertos entonces C es llamado un cubrimiento abierto. Definición 2.14. Si C es un cubrimiento de X, entonces C es un cubrimiento finito de X si cada elemento de X tiene una vecindad que intersecta de manera finita a los elementos de C. Definición 2.15. Un espacio topológico X es compacto si cada uno de sus cubrimientos abiertos tiene un subcubrimiento finito. Definición 2.16. Sean C y D cubrimientos de un espacio topológico X. D es un refinamiento de C si todo conjunto que pertenece a D es un subconjunto de algún conjunto que pertenece a C. Formalmente, D = Vβ∈B es un refinamiento de C = Uα∈A cuando ∀β∃α tal que Vβ ⊂ Uα. Definición 2.17. Un espacio topológico X es paracompacto si cada cubri- miento abierto tiene un refinamiento abierto que es localmente finito. 15
  19. 19. 2.8 Partición de la unidad Definición 2.18. Una partición de la unidad de un espacio topológico X es un conjunto R de funciones continuas de X en el intervalo [0, 1] tales que para cada punto x que pertenece a X, se cumple lo siguiente: 1. Existe una vecindad de x donde todos excepto un número finito de las funciones de R son 0. 2. La suma de todos los valores de las funciones es igual a 1. En símbolos: ρ∈R ρ(x) = 1 16
  20. 20. Capítulo 3 Tópicos de geometría Diferencial 3.1 Variedades 3.1.1 Introducción 3.1.2 Álgebra Definición 3.1. A y B están separados por vecindad si existe alguna ve- cindad U de A y V de B tal que U y V son disjuntos. Definición 3.2. Sean x y y puntos de un espacio topológico X que puede ser separado por vecindad. Entonces X es un espacio de Hausdorff si todos los pares distintos de puntos de X son vecindades separables. Definición 3.3. Un espacio topológico X es localmente euclídeo si existe un número entero no negativo tal que todo punto en X tiene una vecindad que es homeomórfica a un espacio real Rn . Definición 3.4. Una variedad topológica es un espacio de Hausdorff local- mente euclídeo. A veces, se utiliza el término variedad para referirse a una variedad topológica. Definición 3.5. Una presentación de una variedad topológica es un es- pacio de Hausdorff segundo contable que es localmente homeomorfo a un espacio vectorial por una colección llamada atlas de homeomorfismos llamados cartas donde la composición de una carta con el inverso de otra carta es una función llamada mapa de transición. Definición 3.6. Una variedad Ck -diferenciable donde k es un entero no negativo, es una variedad topológica equipada con una clase de equivalencia de atlas cuyos mapas de transición son todos diferenciables k veces. Definición 3.7. Una variedad suave es una variedad C∞ -diferenciable para la cuál todos sus mapas de transición son suaves. 17
  21. 21. 3.2 Fibrados y conexiones 3.2.1 Introducción El concepto de conexión define con precisión la idea de transportar datos entre una familia de curvas en una manera ’paralela’. La clase de datos trans- portada define la clase de conexión. Por ejemplo, la conexión afín proporciona una manera de transportar de ma- nera paralela vectores tangentes de un punto a otro de una variedad recorriendo una curva. Transportar datos en una superficie no siempre es trivial. Así por ejemplo está el problema de transportar un vector tangente a la superficie de una esfera desde un punto a otro de la esfera. La dirección a la que apunte el vector transportado depende de la trayectoria por la cuál se transportó. La solución a este problema proviene después de considerar que la derivada direccional según el cálculo vectorial no se comporta bien ante cambios de coordenadas que se apliquen a los componentes del vector. Entonces una de las maneras de abordar este asunto es con las conexiones de Cartan que consiste en usar grupos de Lie y las simetrías del espacio que se está estudiando. Esto en el caso del problema anterior da origen a estudiar las rotaciones de dicho espacio. 3.2.2 Álgebra Sea, • E, B y F espacios topológicos. • B un espacio topológico conectado llamado espacio base. • E un espacio topológico llamado espacio total. • F un espacio topológico llamado fibra. • π : E → B una aplicación sobreyectiva continua llamada proyección. • Para cada x ∈ B existe una vecindad abierta U ⊂ B de x tal que exista un homeomorfismo φ : π−1 (U) → U × F de manera que π coincida con la proyección en el primer factor. Definición 3.8. Para todo Ui ∈ U y φi ∈ φ el conjunto de todos los (Ui, φi) es llamado una trivialización local. Si π : E → B satisface la condición de trivialización local entonces: Definición 3.9. Para todo p ∈ B, la preimagen π−1 (p) es llamada una fibra sobre p donde π−1 (p) es homeomórfica a F. Definición 3.10. La estructura (E, B, π, F) es un fibrado y es denotada por F → E π −→ B. Definición 3.11. Un fibrado suave es un fibrado donde E, B, F son varieda- des suaves y π es un mapa suave. 18
  22. 22. 3.2.3 Fibrado vectorial Definición 3.12. Un fibrado vectorial real consiste de: • Un espacio topológico X llamado espacio base. • Un espacio topológico E llamado espacio total. • Una función sobreyectiva continua Π : E → X llamada proyección del fibrado. • Para cada x que pertenece a X se tiene una estructura de un espacio vectorial real de dimensión finita en la fibra Π−1 (x). Donde la siguiente condición de compatibilidad es satisfecha: Para todo punto p que pertenece a X, existe: • Una vecindad abierta U ⊆ X de p. • Un número natural k. • Un homeomorfismo ϕ : U × Rk → π−1 (U) tal que para todo x que perte- nece a U: – (π ◦ ϕ)(x, v) = x para todos los vectores v en Rk . – El mapa v → ϕ(x, v) es un isomorfismo lineal entre los espacios vectoriales Rk y Π−1 . Una trivialización local de un fibrado vectorial es una vecindad abierta U junto con el homeomorfismo ϕ. Un fibrado vectorial (E, p, M) es suave cuando E y M son variedades sua- ves, p : E → M es un mapeo suave y las trivializaciones locales son a su vez difeomorfismos. Definición 3.13. Sea: • E → M un fibrado vectorial suave sobre una variedad diferenciable M. • Γ(E) es espacio de secciones suaves de E. Una conexión en E es un mapa lineal-R : Γ(E) → Γ(E ⊗ T∗ M) tal que la regla de Leibniz (σf) = ( σ)f + σ ⊗ df se cumple para todas las funciones suaves f en M y todas las secciones suaves σ de E. 3.2.4 Fibrado principal Sea G un grupo topológico. Entonces, un G-fibrado principal es un fibrado π = P → X junto con una acción continua P × G → P tal que G preserve las fibras de P y actúe regularmente en ellos de una manera que ∀x ∈ X, y ∈ P el mapa G → Px que envía g con yg es un homeomorfismo. 19
  23. 23. 3.3 Clases características 3.3.1 Categoría Una categoría C consiste de: • Una clase ob(C) de objetos. • Una clase hom(C) de morfismos entre los objetos. • Para cada 3 objetos a, b, c existe una operación binaria hom(a, b)×hom(b, c) → hom(a, c) llamada composición de morfismos. Si f y g son morfismos entonces la composición de f y g denotada por f ◦ g. 3.3.2 Funtor Sean las categorías C y D. Un funtor de C hasta D es un mapa que cumple con las siguientes condiciones: • Asociar cada objeto X en C un objeto F(X) en D. • Asociar a cada morfismo f : X → Y en C un morfismo F(f) : F(X) → F(Y ) en D tal que: – Para cada objeto X en C entonces F(idX) = idF (X) – Para todo morfismo f : X → Y y g : Y → Z en C entonces F(f ◦g) = F(f) ◦ F(g). 3.3.3 Clase característica Sea G un grupo y X un espacio topológico y bG(X) el conjunto de las clases de isomorfismo de las G-fibrados principales. Entonces una clase característica c de G-fibrados principales es entonces una transformación natural de bG a un funtor H∗ de cohomología. 20
  24. 24. Capítulo 4 Tópicos de Teoría de Campos 4.1 Aspectos clásicos 4.1.1 Introducción Los campos clásicos se representan con secciones de haces fibrados y su dinámica se formula en términos de haces de jets conformando lo que se conoce como teoría de campos clásica covariante. Para comenzar a definir esta teoría se requiere conocer bajo que condiciones físicas es válido aplicar los campos clásicos: Ellos solo son útiles cuando se quiere describir fenómenos que ocurren a escalas de energía donde las propiedades cuánticas de la materia son despreciables. Además para su definición también se requiere poder escribir de manera lógica las cantidades físicas representadas por estos y para ello existen varios formalismos matemáticos. La razón de que sea útil emplear varias opciones pa- ra representar lo mismo es que cada formalismo tiene sus ventajas a la hora de extraer información acerca de las relaciones entre las cantidades físicas que pretenden describir. Por ejemplo hay una formulación que permite de mane- ra directa elevar las funciones vectoriales que representan los campos clásicos a operadores vectoriales para representar los campos cuánticos. Otra formula- ción muestra que es evidente que las leyes obtenidas son invariantes ante alguna transformación de coordenadas. En particular la formulación basada en fibrados vectoriales de cualquier campo clásico requiere de conocer bien como abstraer algún campo físico en particular a el concepto general de campo como una es- tructura matemática y también requiere de saber como manejar la estructura de los fibrados vectoriales, objeto estudiado por la topología y la teoría de catego- rías. Por lo tanto antes de considerarla se verán otros ejemplos de formalismos mas concretos y se irá aumentando el grado de abstracción a medida que se explique porque es necesario hacerlo. 21
  25. 25. A continuación y como ejemplo, se tomará una teoría de la física clásica y se escribirá en términos de algunos formalismos matemáticos para ver las ventajas de cada uno. Esto con motivo de exponer porque son útiles los conceptos de álgebra abstracta, topología, geometría diferencial y teoría de categorías para escribir las leyes que dan origen al P-EYMSM que es la teoría que atañe al presente trabajo. La teoría elegida será la teoría electromagnética debido a lo siguiente: • Los aspectos físicos que describe no constituyen un problema abierto para la ciencia actualmente. Esto es un criterio válido aún cuando, estrictamen- te hablando, siempre será un problema abierto hasta que se descubra una teoría unificada para todas las interacciones entre partículas o se prue- be que no existe tal unificación. Por lo tanto, se le considera una teoría efectiva. • Juega un papel importante tanto en el mundo macroscópico como en el mi- croscópico lo que le da 2 características. Primero, describe fenómenos que podemos percibir con nuestros sentidos de manera directa y así tener una noción de su comportamiento. Segundo, sus efectos no son despreciables en el comportamiento de las partículas subatómicas como los protones. EL P-EYMSM, al tratar de la interacción fuerte, está presente a una escala aún mas pequeña (por ejemplo, el interior de un protón) y lidia con una fuerza de magnitud mucho mayor que la interacción electromagnética, pe- ro sus consecuencias están a su vez presentes en la escala de las partículas subatómicas, es decir, la misma en donde la teoría electromagnética es importante. • Sus leyes o al menos la noción de sus leyes, se pueden escribir conociendo las leyes de la suma y multiplicación de números reales. Esto es, se formula como relaciones entre elementos del cuerpo de los números reales R. Sin embargo mas adelante se mostrará el porqué es necesario escribirla como relaciones entre estructuras algebraicas mas complicadas para tratar de entenderla como realmente es. Todos los formalismos que describen la interacción electromagnética tienen una meta en común, la cual es, describir las interacciones físicas que ocurren entre partículas con carga eléctrica. Esto lleva a que las expresiones matemáti- cas resultantes deben coincidir con la evidencia experimental. Sumado a esto, deben llevar a conclusiones razonables, como por ejemplo, que permanezcan in- variantes ante rotaciones y translaciones de ejes coordenados. Después de todo, ¿tiene sentido una teoría que predice que, bajo las mismas condiciones, un ex- perimento observado en un laboratorio se comportará de manera diferente en otro laboratorio? En lo que a campos clásicos se refiere, toda consecuencia di- ferente es causada por un parámetro diferente en las condiciones iniciales del experimento. 22
  26. 26. 4.1.2 Electrodinámica clásica como funciones reales El formalismo mas sencillo solamente aporta información acerca de la propor- ciones entre las cargas eléctricas y las fuerzas que estas producen a determinadas distancias. Así por ejemplo la evidencia experimental ha llevado a describir la fuerza eléctrica como indica la ley de Coulomb. Esta nos dice que cuando las cargas eléctricas: • Tienen simetría esférica. • No se superponen. • Son estacionarias cada una respecto a la otra. Entonces, se cumple que: F0 = ke qq0 r2 0 (4.1) Donde: F0: fuerza eléctrica producida por la carga q sobre q0. q: carga eléctrica que genera la fuerza. q0: carga eléctrica que ”siente” la fuerza. r0: distancia entre q y q0. En unidades del SI la fuerza se mide en N, la carga en C y la distancia en m lo que da como resultado que ke ≈ 8.987N · m2 · C−2 . Además de las expresiones matemáticas que describen un fenómeno físico están también las definiciones como la de campo eléctrico, a saber: F = q0E (4.2) De esta sencilla ley se puede fácilmente extraer información como que la fuerza eléctrica es inversamente proporcional al cuadrado de la distancia entre las cargas eléctricas. Ahora bien, para expresarla en esos términos se necesitó echar mano del álgebra abstracta. Esto porque las cantidades físicas como la fuerza eléctrica dependen de la distancia, es decir, están definida como funciones de la distancia. Tanto la distancia como la fuerza se expresan como números reales. Esto se puede expresar en esta notación: F : R → R. Lo mismo ocurre con todas las cantidades físicas. Son funciones que actúan sobre elementos del conjunto de números reales. Por lo tanto, las operaciones definidas en ese conjunto representan fenómenos físicos, y también tienen consecuencias en los fenómenos físicos. Así que es debido a que las fuerzas eléctricas cumplen con el principio de superposición que se utilizan la suma y multiplicación en R para representar distribuciones de carga. Al utilizar números reales por lo tanto se está trayendo toda la información de la estructura algebraica del anillo (R, +, ·) para describir la ley de Coulomb. 23
  27. 27. Por lo tanto si no se da por sentado la información mencionada, la ley de Coulomb se escribe así: Sea: (R, +, .) el cuerpo de los números reales y D ⊂ R. Entonces, la fuerza de Coulomb es una función F : D → R definida como: F0 = ke qq0 r2 0 (4.3) donde q, q0, ke, r2 0 ∈ R y tienen el mismo significado físico que el de la defi- nición anterior. Como se ve, no basta con solo definir el significado físico de cada constante y variable. También hay que definir a que estructura matemática pertenecen para así saber como realizar operaciones con estas cantidades. En este caso, todas las funciones actúan sobre elementos del anillo (R, +, ·). Entre las propiedades de los anillos están que empleando las operaciones que lo definen se puede encontrar una solución única a una ecuación definida en ese anillo como pasa con la ley de Coulomb. Esta es la razón al porque en dicha ecuación podemos despejar por ejemplo la carga eléctrica q y tener la garantía de que el valor numérico obtenido es único y es realmente la solución. A continuación el procedimiento para ”despejar” q de la ley de Coulomb aplicando las propiedades del anillo (R, +, ·): Debido a que r−2 = 1 r2 F0 = keqq0r0 −2 Multiplicación derecha a ambos lados de la ecuación F0(keq0r0 −2 )−1 = keqq0r0 −2 (keq0r0 −2 )−1 Asociatividad de la multiplicación F0(keq0r0 −2 )−1 = [(ke)(k−1 e )][(q0)(q0)−1 ][(r0 −2 )(r−2 0 )−1 ]q Elemento inverso multiplicativo (x)(x)−1 = 1 F0(keq0r0 −2 )−1 = q Reescribiendo de la manera usual F0r0 2 keq0 = q Se pueden garantizar 2 cosas respecto al valor numérico obtenido al evaluar la expresión: Primero, que es el único valor válido de q, no hay otra carga eléctrica que satisfaga la expresión. Segundo, incluso antes de calcular q se sabe que este valor existe para todo elemento del dominio de F, a saber, el conjunto D. De esta manera se ve que no tiene sentido extraer conclusiones físicas de estudiar la expresión para r0 = 0 ya 24
  28. 28. que al hallar D para la expresión de la ley de Coulomb vemos que no contiene al elemento r = 0. Adicionalmente, estar seguro de que una solución existe, tiene aún mas re- levancia cuando la expresión matemática que representa a una ley física es tan compleja, que no se sabe como despejar la variable a estudiar. Conviene primero averiguar si tal solución realmente existe antes de intentar encontrarla. Entonces, haciendo una analogía, cabe formular la pregunta, ¿De verdad existe una solución a la ecuación que representa a la interacción fuerte? A este problema se le conoce como ”existencia de Yang-Mills”. Probar que una solución existe o que no existe es suficientemente complejo e importante para que se le considere un problema del milenio. Retomando el análisis de la Ley de Coulomb otra cuestión a considerar son las condiciones en las que esta ley es válida. Esto porque muchos fenómenos físi- cos ocurren con campos eléctricos y magnéticos que son variables con el tiempo como por ejemplo las ondas electromagnéticas y en estos la ley de Coulomb en general deja de ser válida. Por lo tanto, el modelo matemático ahora debe modelar las magnitudes fí- sicas como funciones de 2 variables, a saber, el espacio y el tiempo. Debido a la dependencia temporal de estas funciones a este modelo se le conoce como electrodinámica en contraposición a la electrostática donde los campos son cons- tantes en el tiempo. En cuanto a que los campos sean funciones de una sola variable espacial, en general el movimiento de una partícula en el espacio nece- sita de 3 números o 3 coordenadas espaciales para ser representado. Esto lleva a que las magnitudes físicas dependen en general de 3 variables espaciales y una temporal. Cuando Maxwell formuló la electrodinámica [3] lo hizo con un modelo de 20 ecuaciones cuyas magnitudes físicas eran campos escalares definidos de R3 → R, es decir, las magnitudes físicas fueron representadas por funciones que dependen de varias variables pero retornan un escalar. Nótese que el anillo sobre el que están definidos estos campos es (R , +, .), el cual es una estructura algebraica diferente de (R, +, .). Por tanto tiene sus propias operaciones aditiva y multipli- cativa para actuar sobre los elementos del conjunto del conjunto R que ahora son ternas de números reales (x, y, z) en vez de un solo número real. Las mag- nitudes físicas principales en estas ecuaciones son lo que hoy se conoce como potencial escalar eléctrico ϕ y como potencial vector magnético A pero claro escrito como campo escalar. Sin embargo, al elevar los campos escalares que representan las magnitudes físicas en la teoría electromagnética a campos vectoriales (funciones de varia variables espaciales que retornan vectores), se puede extraer información acerca de la simetría en el espacio, en especial, al utilizar las coordenadas adecuadas. También se logra simplificar el número de expresiones matemáticas necesarias para describir el fenómeno físico. Por ejemplo las 20 ecuaciones originales de Maxwell se traducen en 8 ecuaciones vectoriales. Buscando tomar en cuenta las simetrías que son evidentes al formular la interacción electromagnética con vectores, Heaviside, Gibbs y Hertz lograron con solo 4 ecuaciones describir este fenómeno alrededor del año 1884 [6]. Para ello se emplearon los campos eléctrico 25
  29. 29. E y magnético B en vez de los potenciales ϕ y A. 4.1.3 Formulación con cálculo vectorial de la electrodiná- mica clásica. Sean E : R3 → R3 el campo eléctrico y B : R3 → R3 el campo magné- tico tales que: Definición 4.1. · E = ρ 0 (4.4) · B = 0 (4.5) × E = − ∂B ∂t (4.6) × B = −µ0J + µ0 0 ∂E ∂t (4.7) F = qE + qv × B (4.8) El sistema queda determinado por 6 cantidades independientes que corres- ponden a las 3 componentes espaciales de cada campo. Al escribir las leyes del electromagnetismo de esta manera no se puede ver como estas también se cumplen en el marco de la teoría de la relatividad especial. Para lograrlo, se utiliza una propiedad que se manifiesta si se formulan estas mismas leyes pero de la manera como se indica en la siguiente sección. 4.1.4 Formulación con potenciales de la electrodinámica clásica. Sean φ : R3 → R el potencial escalar y A : R3 → R3 el potencial vector definidas como: E = − ϕ − ∂A ∂t (4.9) B = × A (4.10) Entonces al sustituir en las ecuaciones de Maxwell estas se reducen a 2 ecuaciones: 2 ϕ + ∂ ∂t · A = − ρ 0 (4.11) 2 A − 1 c2 ∂2 ∂t2 A − · A + 1 c2 ∂2 ∂t2 A = −µ0J (4.12) Estas 2 ecuaciones son equivalentes a las 4 ecuaciones de Maxwell. 26
  30. 30. Se tiene la ventaja de que son 2 ecuaciones menos cuyas variables indepen- dientes son 4 en total, (1 para el potencial escalar y 3 para el potencial vector) en vez de 6 variables independientes. Como desventaja está el hecho de que las ecuaciones son mas complicadas que las ecuaciones de Maxwell ya que involucran mas términos y aparecen operadores diferenciales de segundo orden. Sin embargo, las ecuaciones de los potenciales se pueden simplificar valiéndose del hecho de que las cantidades que tienen significado físico directo son los campos en vez de los potenciales. Esto se hace de la siguiente manera: Primero se toma en cuenta la siguiente propiedad: Sea λ(r, t) una función doblemente diferenciable. Entonces para todo λ: ϕ = ϕ + ∂ ∂t λ (4.13) A = A + λ (4.14) Esta propiedad nos indica que existen varias combinaciones de ϕ y A ca- racterizadas por un parámetro λ que van a generar los mismos campos E y B. Esto sumado al hecho de que los campos son las cantidades que realmente afectan el comportamiento del sistema que se estudia lleva a que se puede elegir los potenciales con cierta ”libertad”. Esta libertad conocida como ”libertad de calibre” no es total, es decir, que eligiendo cualquier valor para los potenciales no se generan los campos buscados, sino mas bien se eligen los potenciales va- riando el parámetro λ y exigiendo que se satisfaga las 2 ecuaciones mostradas previamente. Es conveniente elegir valores para los potenciales que simplifiquen las ecua- ciones (4.11). Por ejemplo si se toman todos los A que satisfacen la condición: · A = 0 (4.15) Las ecuaciones (4.11) quedan de esta forma: 2 ϕ = − ρ 0 (4.16) 2 A − 1 c2 ∂2 ∂t2 A − 1 c2 ∂2 ∂t2 A = −µ0J (4.17) A esta condición se le conoce como calibre de Coulomb. La razón es que esta condición se cumple cuando el campo magnético es estático o casi estático respecto del tiempo. Bajo esas condiciones la ley de Coulomb predice resultados válidos. También se pueden elegir los potenciales de manera que cumplan con la condición conocida como calibre de Lorentz que implica lo siguiente: 27
  31. 31. · A = − 1 c2 ∂ϕ ∂t (4.18) − 2 λ = − · A − 1 c2 ∂ϕ ∂t (4.19) − 2 ϕ = − ρ 0 (4.20) − 2 A = −µ0J (4.21) donde 2 es el operador D Alembertiano: 2 − 1 c2 ∂2 ∂t2 = − 2 (4.22) Estas ecuaciones son el punto de partida para 2 consideraciones: Primero: que es fácil extenderlas para explicar fenómenos cuánticos al sus- tituir los campos escalares por operadores, dando lugar a la electrodinámica cuántica. Segundo: Estas ecuaciones son invariantes ante transformaciones de Lorentz. Sin embargo esto no es tan obvio cuando están en funciones de los campos en vez de los potenciales. Por lo tanto, al ver que no es tan fácil demostrar su invarianza ante transformaciones de Lorentz, surge la cuestión de si se pueden escribir las leyes de Maxwell en términos de los campos y no de los potenciales de una manera que a primera vista si sea invariante ante esas transformaciones. La solución a esto da lugar a la aproximación abiertamente covariante de la electrodinámica clásica. Ambas formulaciones, la que es en términos de potenciales y la que es abierta- mente covariante, se mostrarán en este texto con el fin de conocer la motivación que hubo para escribir leyes físicas en términos de estructuras matemáticas como operadores vectoriales y tensores. De esa manera será natural utilizarlas para escribir las leyes que rigen la interacción fuerte, debido a que las estructuras matemáticas mas sencillas no describen estas leyes por completo. La razón de esto es que en la interacción fuerte y a diferencia de la interacción electromag- nética, los portadores de la fuerza (gluones en vez de fotones) interactúan entre ellos. 4.1.5 Formulación covariante de la electrodinámica. Consiste en escribir las 4 ecuaciones de Maxwell de una forma 4-vectores Para describir el comportamiento de un cuerpo se utilizan tensores llamados cuadrivectores. Las definiciones de los cuadrivectores fundamentales junto con las cantidades fundamentales en el marco de esta teoría son: Sea: 28
  32. 32. R1,3 un espacio de Minkowski. r ∈ R1,3 un punto en el espacio de Minkowski. Definición 4.2. γ = 1 1 − u2 c2 (4.23) donde: γ: Factor de Lorentz. u: norma del vector velocidad u definida como: u = |u| = (u1)2 + (u2)2 + (u3)2 c: velocidad de la luz. Definición 4.3. τ ∈ R el tiempo propio relacionado con el tiempo por: dτ = dt γ(u) (4.24) Definición 4.4. 4-desplazamiento: rµ = (ct, r) = (r0 (τ), r1 (τ), r2 (τ), r3 (τ)) (4.25) donde: ri : R → R con i ∈ {0, 1, 2, 3} y r0 = ct. Definición 4.5. 4-velocidad: uµ = drµ dτ = (ct, u) (4.26) Definición 4.6. 4-momentum pµ = (E/c, p) = m0uµ (4.27) Definición 4.7. 4-gradiente ∂µ = ∂ ∂rµ = 1 c ∂ ∂t − (4.28) Definición 4.8. 4-D’Alembertiano ∂2 = 1 c2 ∂ ∂ ∂ ∂ − 2 (4.29) Definición 4.9. Tensor métrico de Minkowski ηµν =     1 0 0 0 0 −1 0 0 0 0 −1 0 0 0 0 −1     (4.30) 29
  33. 33. Definición 4.10. Tensor electromagnético Fαβ =     0 −Ex/c −Ey/c −Ez/c Ex/c 0 −Bz By Ey/c Bz 0 −Bx Ez/c −By Bx 0     (4.31) Definición 4.11. 4-corriente Jα = (cρ, J) (4.32) Definición 4.12. 4-potencial Aα = (ϕ/c, A) (4.33) Empleando las definiciones anteriores se pueden escribir las leyes de Maxwell como 2 ecuaciones tensoriales, que son: ∂αFαβ = µ0Jβ Ley de Gauss-Ampere. (4.34) ∂α 1 2 αβγδ Fγδ = 0 Ley de Gauss-Faraday. (4.35) El lagrangiano que contiene la información de un sistema regido por la in- teracción electromagnética es: L = Lcampo + Lfuente (4.36) donde: Lcampo = − 1 4µ0 Fαβ Fαβ Componente debida a los campos. (4.37) Lfuente = −AαJα Componente debida a las fuentes. (4.38) La correspondiente ecuación de Euler-Lagrange: ∂β = ∂ L ∂(∂βAα) − ∂ L ∂Aα (4.39) Simplificando esta última expresión se obtiene la ley de Gauss-Ampere co- rroborando que el Lagrangiano es incluso mas fundamental que las ecuaciones de Maxwell. Esto lo hace útil para emplearlo en la búsqueda de las leyes que rigen un sistema físico ya que proporciona un método uniforme a seguir pa- ra con todas las interacciones. Primero se intenta buscar el Lagrangiano del sistema, después se resuelven las ecuaciones de Euler-Lagrange. Las relaciones entre las cantidades obtenidas son la descripción del sistema. Este método es 30
  34. 34. el mismo para todas las interacciones de la naturaleza ya que las ecuaciones de Euler-Lagrange no cambian. Lo que cambia es el lagrangiano del sistema y es allí donde radica el problema del milenio que se está exponiendo. Encontrar un lagrangiano que sea válido físicamente (o en términos mate- máticos que cumpla con las condiciones de Poincaré) es algo que aún se está tratando de conseguir para la interacción fuerte. Ese no es el caso de la interac- ción electromagnética donde ya se ha demostrado que el lagrangiano conseguido (4.36) si cumple con esas condiciones. Esto ha sido posible en parte porque los portadores de fuerza de la inter- acción electromagnética no interactúan entre ellos y se pueden representar sus propiedades utilizando estructuras algebraicas mas sencillas y mejor entendidas lo que trae como consecuencia que se sabe como hacer esas demostraciones con dichas estructuras. 4.2 Aspectos cuánticos 4.2.1 Introducción Se había mencionado que escribir las leyes de la electrodinámica clásica en función de potenciales y simplificando con el calibre de Lorentz tal como se muestra en (4.18) era el punto de partida para 2 formulaciones: Una cuántica y una relativista.A continuación se muestra la formulación cuántica. Como se busca escribir las mismas leyes entonces se utilizarán las mismas ecuaciones. Lo que cambia es la manera como se representan las magnitudes físicas que aparecen en ellas. En este caso, dichas magnitudes ya no se modelarán con campos vectoriales sino con operadores vectoriales. A este proceso se le conoce como cuantización canónica. Sin embargo este es solo una parte de la descripción de un fenómeno cuán- tico. Porque el resultado final de resolver las ecuaciones que se presentarán a continuación es hallar los operadores vectoriales ϕ y A. Pero ¿en que ayuda el conocer estas cantidades a entender la evolución del sistema? En un sistema clásico se utilizarían estas cantidades para hallar los campos eléctrico (E) y magnético (B). Con esto se puede hallar la energía disipada o la fuerza electromagnética según (4.4). A su vez, conociendo la fuerza se pue- den conocer la evolución temporal de campos vectoriales de interés como la aceleración, velocidad y posición de una partícula bajo la acción de la fuerza electromagnética. Esto se logra sustituyendo el valor de la fuerza en ecuaciones de movimiento como la segunda ley de Newton, las ecuaciones de Euler-Lagrange o en el caso mas general usando la corrección relativista de estas ecuaciones. Con cualquier camino elegido se esta asumiendo la misma realidad física. Que es cierto que se puede determinar exactamente la evolución temporal de un sistema conociendo su estado inicial y las leyes de la naturaleza. Asumir este hecho tan cotidiano, permite intuitivamente a un jugador de béisbol ubicarse en el terreno de juego para aproximarse a donde el ”ve” que caerá la pelota incluso cuando esta todavía está ascendiendo. Sin embargo, esto no es tan cierto cuando 31
  35. 35. las partículas en movimiento son mucho mas pequeñas que una pelota de béisbol, de hecho, cuando son tan pequeñas como un electrón. Como explica el principio de incertidumbre de Heisemberg no se puede de- terminar el estado de un sistema en un tiempo dado con total precisión. Cuando las dimensiones de las partículas son lo suficientemente pequeñas se percibe que lo mas que se puede conocer es la probabilidad de que un sistema se encuentre en un estado determinado. Y si no se puede conocer con total certeza donde caerá la pelota, tampoco se puede conocer con total certeza el camino que ella sigue mientras está en el aire. Esto quiere decir que si le tomáramos fotos sucesivas a esta hipotética pelota cuántica mientras cae no veríamos que sigue un solo camino, sino que veríamos que sigue varios caminos. Eso si, habrán caminos mas probables que otros en los que veríamos en las fotos que la pelota aparece con mas frecuencia que los demás. Al final todos caerían ya no en un solo punto del campo sino en una región mas probable. Para hallar la probabilidad con que la pelota de béisbol cuántica se encuentre en una región del campo de béisbol hay que sumar cada una de las probabilidades que tiene la pelota de seguir un camino determinado en el cielo. Cada uno de estos caminos puede involucrar distintos fenómenos físicos que dependen de las interacciones que ocurran con un tipo de partícula dado. Por ejemplo si la partícula es un electrón, entonces se verá afectada por el campo electromagnético existente en su trayectoria. La fuerza que experimente esta será diferente a la que ”siente” un gluón que no tiene carga eléctrica y por lo tanto no lo afecta el campo electromagnético pero si la interacción fuerte. Estamos hablando de que pueden haber fenómenos físicos diferentes a lo largo de cada uno de los caminos probables en la trayectoria de la partícula y por lo tanto cada uno de esos caminos que ella sigue se pueden dividir a su vez en secciones, cada una con su probabilidad de que ocurra. La probabilidad de que la partícula viaje por un camino es el producto de las probabilidades de que viaje por las secciones de ese camino. En cambio la probabilidad de que la partícula caiga en una región del campo es la suma de las probabilidades de todos los caminos posibles. El cálculo de la probabilidad total se tratará con los diagramas de Feymann en su correspon- diente capítulo. Pero cada sección de un determinado camino probable tiene su probabilidad de ocurrencia la cuál se debe calcular para poder calcular la probabilidad total. En cuántica, los operadores ϕ y A determinan esta probabilidad para cada sección de un solo camino. A continuación se expondrá como calcular esta probabilidad de cada sección de cada camino que como se dijo al principio de esta sección es tan solo una parte de la descripción de un fenómeno cuántico. Para hallar el resto de la descripción se utilizan los diagramas de Feymann. 32
  36. 36. 4.2.2 Cuantización canónica de la electrodinámica. La extensión al a mecánica cuántica se realiza tomando las mismas ecuacio- nes (4.18) pero cambiando las siguientes definiciones: Primero, ϕ y A ahora son operadores vectoriales en el espacio de Hilbert. Segundo, J y ρ son densidades de corriente y carga de un campo de materia. Este campo a su vez está definido como la interacción del campo electro- magnético con el electrón de Dirac. El electrón de Dirac se representa con un campo espinorial denotado por ψ. El símbolo α son las tres primeras matrices contravariantes de Dirac. Esto resulta en las siguientes relaciones: J = −eψ† αψ (4.40) ρ = −eψ† ψ (4.41) Por lo tanto las ecuaciones que relacionan los potenciales ahora se pueden escribir en función del campo espinorial de Dirac ψ dando lugar a las ecuaciones de Maxwell cuánticas. 2 A − 1 c2 ∂2 A ∂2t = µ0eψ† αψ (4.42) 2 ϕ − 1 c2 ∂2 ϕ ∂2t = 1 0 eψ† ψ (4.43) (4.44) Ahora bien estas ecuaciones se pueden deducir con la mecánica lagrangiana de la cuál también se deducen las leyes que rigen otras interacciones como por ejemplo la interacción nuclear fuerte. Por esa razón se suele escribir esta teoría en términos de la densidad de lagrangiano de un sistema que al aplicarle las ecuaciones de Euler-Lagrange se obtienen las leyes de Maxwell par el caso de la interacción electromagnética. Las características del sistema descrito por la densidad de lagrangiano de- ben ser muy fundamentales, es decir, los demás casos se pueden tomar (al menos conceptualmente) como una superposición de este sistema. Las predicciones ob- tenidas son fundamentales porque se deben de cumplir en todos los demás casos en donde exista la interacción descrita. Por eso en la electrodinámica el sistema descrito por el lagrangiano esta conformado por 2 partículas cargadas que in- teraccionan entre si ya que cualquier otro fenómeno electromagnético se puede describir con otras distribuciones de carga que pueden ser continuas o discretas actuando como fuentes de los campos eléctrico y magnético y que pueden ser sumatorias o integrales de una partícula cargada. En términos de la mecánica cuántica la interacción electromagnética mas simple ocurre entre 2 partículas materiales cargadas en donde el campo generado entre ellas es de naturaleza discreta. Las determinación de las propiedades de las partículas de materia estén cargadas eléctricamente o no está regida por la estadística de Fermi-Dirac y por eso se les conoce como fermiones 33
  37. 37. Por otro lado las distribuciones discretas de energía se pueden tomar co- mo paquetes o partículas de energía cuyas propiedades siguen la estadística de Bose-Einsten razón por la que se les conoce como bosones. El bosón emitido y recibido por las partículas de materia hace que estas sientan o se vean afectadas por la fuerza en cuestión por lo que estos bosones reciben la denominación de portadores o mediadores de la interacción. A modo muy general la diferencia mas importante entre bosones y fermiones es que los fermiones siguen el prin- cipio de exclusión de Pauli que ocasiona que los fermiones se pueden distinguir uno de otro entre si porque nunca van a tener todas y cada una de sus propie- dades físicas exactamente iguales. Un ejemplo de partículas afectadas por este principio son los electrones y es por eso que 2 electrones que ocupen el mismo orbital atómico se pueden distinguir uno de otro porque no pueden tener el mismo espín. Por lo tanto y dicho de modo muy simplista se necesita modelar a 2 fermiones interaccionando por medio de 1 bosón. los fermiones representan las 2 partículas cargadas de materia y el bosón mediador de la interacción electromagnética es el fotón. Entonces se modela la electrodinámica cuántica como una teoría de calibre cuyo grupo de simetría es U(1) y cuyo campo de calibre es el campo electromag- nético el cual media la interacción entre los campos cargados de espín igual a 1/2 , es decir, los fermiones o las partículas de materia cargadas eléctricamente. Nótese que tanto fotones como fermiones cargados son modelados como campos que a su vez se representan con operadores vectoriales. El lagrangiano de ese sistema es: L = ψ(iγµ Dµ − m)ψ − 1 4 Fµν Fµν (4.45) donde: • γµ : son las matrices de Dirac. • ψ: es un campo di espinorial para las partículas de espín 1/2. • ψ = ψ† γ0 es el adjunto de Dirac. • Dµ = ∂µ + ieAµ + ieBµ es la derivada de calibre covariante. • e: es la constante de acoplamiento. • m: es la masa del electrón o del positrón. • Aµ: es el cuadri potencial covariante del campo electromagnético auto inducido generado por el electrón. • Bµ: es el campo externo generado por la carga externa. • Fµν = ∂µAν − ∂νAµ es el tensor del campo electromagnético. 34
  38. 38. A su vez las matices de Dirac están definidas como: γ0 =     1 0 0 0 0 1 0 0 0 0 −1 0 0 0 0 −1     (4.46) γ1 =     0 0 0 1 0 0 1 0 0 −1 0 0 −1 0 0 0     (4.47) γ2 =     0 0 0 −i 0 0 i 0 0 i 0 0 −i 0 0 0     (4.48) γ3 =     0 0 1 0 0 0 0 −1 −1 0 0 0 0 1 0 0     (4.49) Del lagrangiano se pueden deducir las ecuaciones de Maxwell cuánticas. A su vez, con ellas se pueden obtener los operadores vectoriales ϕ y A. Obtenidos estas expresiones, se puede calcular la probabilidad de que ocurra una sección de un solo camino de entre todos los caminos posibles. Siguiendo el mismo procedimiento pero con un lagrangiano diferente pro- ducto de una interacción diferente se puede hallar la probabilidad asociada a una sección de un camino posible entre partículas afectadas por la interacción fuerte. 4.2.3 Interacción fuerte Es una de las 4 interacciones fundamentales de la materia junto con la gra- vitatoria, electromagnética y débil. Mientras que los efectos de la interacción electromagnética se pueden ver a simple vista, los de la interacción fuerte solo se aprecian a escalas tan pequeñas que son invisibles a nuestros sentidos. Sin embargo, es la causante de 2 fenómenos que permiten nuestra existencia en el universo tal y como lo conocemos. A una escala mas grande, es decir, a distancias del orden de 10−15 m, es la causante de la fuerza fuerte residual. Esta es la fuerza que mantiene unidos a los protones y neutrones entre si, permitiendo la existencia del núcleo atómico en el interior del átomo. Para tener una idea de su intensidad, se puede ver como en un átomo de Helio es capaz de mantener unidos a 2 protones dentro de su núcleo a pesar de la fuerza electromagnética repulsiva que existe ente ellos porque tienen la misma carga eléctrica. Según la Ley de Coulomb esta fuerza repulsiva debe tener una magnitud muy grande por las cortas distancias a la que están los protones uno de otro. 35
  39. 39. Esta es la razón de porque se libera tanta energía al romper el núcleo atómico en las reacciones nucleares. En esas reacciones se está rompiendo el enlace de la fuerza fuerte residual entre los protones y neutrones, enlace que debe ser muy fuerte para lograr mantener juntos a estas partículas. Esta fuerza afecta en general a cualquier partícula clasificada como hadrón (del griego hadros por denso o muy junto), es decir, a todas las partículas com- puestas de quarks. Los hadrones se clasifican como mesones (del griego mesos por mediano) si están compuestos de 2 quarks y bariones (del griego baryos por pesado) si lo están de 3 quarks. Entre los bariones están los nucleones, que son los integrantes del núcleo atómico (protones y neutrones). El enlace que mantiene unido al núcleo atómico es el intercambio de mesones entre los nucleones. Para entender como están relacionadas todas estas partículas entre si se ha ideado una teoría denominada Modelo Estándar de la Física de Partículas. Esta teoría modela con estructuras algebraicas las interacciones de estas partículas con los campos de fuerza que las afectan. Las operaciones entre los elementos de estas estructuras corresponden con fenómenos físicos. A su vez, de las propie- dades de estas estructuras se pueden conseguir las propiedades que deben tener estas partículas. Esto es exactamente lo que se hace con todos los modelos físicos pero las estructuras utilizadas son mas complejas que los típicos vectores en R+ que aparecen en la Mecánica Clásica para modelar las cantidades observables. Si bien este modelo explica las propiedades de las partículas partiendo de las simetrías presentes en una estructura algebraica, no es necesario saber esto para clasificarlas de una manera parecida a una tabla periódica de los elementos como se muestra en la figura 4.1. Es necesario tener presente este esquema para entender la terminología empleada en esta tesis para referirse a las diferentes partículas. El otro fenómeno en el cual participa la interacción fuerte ocurre a una escala mas pequeña, de menos de 0.7.10−15 m. Aquí, la interacción fuerte es la que mantiene unidos a los quarks que conforman un hadrón. Es decir que permite, por ejemplo, la formación de protones y neutrones al mantener unidos a 3 quarks. En este caso el enlace que mantiene unido al hadrón es el intercambio de gluones entre los quarks que conforman dicho hadrón. Actualmente se entiende que la fuerza fuerte residual es un efecto residual del mencionado intercambio de gluones entre quarks, el cual recibe el nombre de fuerza de color. De ahí que la rama de la mecánica cuántica que estudia las leyes que rigen esta fuerza se denomine cromo-dinámica cuántica ya que cromo es color en griego. Pero ¿a que color se refiere? No es al fenómeno que permite a nuestros ojos distinguir las distintas longitudes de onda de la luz que incide sobre ellos. Mas bien, se refiere a una propiedad de la materia tal como la masa o la carga eléctrica. Existe solo un tipo de masa que siempre ejerce una fuerza atractiva y que puede tomar infinitos valores continuos, por lo que se representa con el conjunto R+ . Por otra parte existen 2 tipos de carga eléctrica cuyos valores son múltiplos de un número real denominado e. Es bien conocido que cargas eléctricas de un mismo tipo se repelen pero cargas opuestas se atraen. Por esa razón se denominó 36
  40. 40. Figura 4.1: Modelo estándar de partículas elementales 37
  41. 41. a un tipo como carga positiva y al otro como carga negativa. Las cargas positivas se representan como elementos del conjunto R+ y las negativas como elementos de R− . La operación multiplicación usual en R representa lo que pasa cuando 2 partículas cargadas interaccionan, es decir, si la fuerza entre ellas será atractiva o repulsiva. La operación suma usual en R representa el efecto que tienen varias partículas cargadas sobre un punto del espacio, es decir, lo que se conoce como principio de superposición. En el caso de la propiedad color o carga de color existen 2 tipos de carga pero que solo pueden tomar 3 valores diferentes cada una. Por convención esto se representa con los elementos del conjunto {R, G, B} para un tipo al que llamaremos color y con {R, G, B} para el otro tipo denominado anti-color. Representar las cargas de color con esas siglas es una alusión nemotécnica a el nombre en inglés de los 3 colores visibles al ojo humano, a saber, R por red o rojo, B por blue o azúl y G por green o verde. Pero ¿cuales se atraen y cuales se repelen? Y ¿Que ocurre cuando se su- perponen? La figura 4.2 contiene un esquema de la observación experimental donde se aprecian las líneas de campo entre los distintos colores y también el color resultante de cada superposición. Se puede ver que las líneas de campo no divergen, es decir, se dibujan de manera que salen de una partícula con color y terminan en otra partícula con color dentro del mismo dibujo. La razón es que la interacción atractiva entre los gluones que ”viajan” por cada línea hace que estas líneas quieran estar muy juntas. Esta interacción atractiva causa que una partícula no emita su campo gluónico radialmente hacia afuera como si fuera un campo eléctrico, sino que se parezca en este aspecto al campo magnético que tampoco diverge. Otro detalle proporcionado por la forma de las líneas de campo es que estas salen de un color y terminan en un anti-color como ocurre con el campo mag- nético haciendo que la contribución total sea nula. A esto se le conoce como neutralidad binaria. Pero también, y a diferencia del campo magnético, si se tienen 3 partículas cada una con 3 colores diferentes, las líneas de campo producidas por cada partícula terminan en otra de otro color haciendo que la contribución de las 3 partículas sea nula. Esto se denomina neutralidad ternaria. Cuando se examinan esquemas como 4.2 siempre hay que saber que son solo simplificaciones cualitativas de aserciones también cualitativas. Estas asercio- nes provienen de la observación experimental. Si se quiere extraer información cuantitativa de la evidencia experimental se deben formular teorías en lenguaje matemático, para poder mediante reglas lógicas conseguir los valores numéricos buscados. En la mecánica cuántica estos valores no son la posición o velocidad de una partícula como por ejemplo, un quark. Mas bien, son valores esperados de la masa, trayectoria, carga eléctrica, y en general, del comportamiento de todos los quarks con las mismas propiedades físicas que el ejemplo que se esté estudiando. En el caso de la interacción fuerte, al hallar los valores permitidos de color según las distintas reglas que se van a plantear se puede predecir si es posible o no que ciertas combinaciones de quarks y gluones existan de manera libre en la 38
  42. 42. B - B R G B B - R - G - G BG R B - G - R - G - G R - R Figura 4.2: Superposición de colores y líneas de campo de la interacción fuerte para bariones y mesones. naturaleza. Recordemos que los quarks son al resto de partículas de la naturaleza como lo son los ladrillos de una casa a la casa por lo que es importante saber que combinaciones de ellos son posibles. Observaciones experimentales A continuación, se planteará en palabras las aserciones que se han asumido como ciertas para la fuerza de color basándose en la observación experimental: 1. El color es un invariante, es decir, no se crea ni se destruye en un proceso físico dado. 2. El color tiene neutralidad binaria. Es decir, la contribución total de una partícula que tenga un color y un anti-color es nula en un punto fuera de ella misma. 3. El color tiene neutralidad ternaria. Es decir, una partícula formada por 3 partículas de colores diferentes también tiene una contribución nula al campo presente en un punto fuera de ella. 4. Cuando los quarks poseen un anti-color se les denomina anti-quarks. 5. Los gluones transportan un color y un anti-color al mismo tiempo. 6. Los mesones siempre van a estar formados por un quark y su correspon- diente anti-quark, es decir, el anti-quark porta el anti-color correspondien- te al color del primer quark. 39
  43. 43. 7. Los bariones siempre están formados por quarks con el mismo tipo de color. Si están formados por anti-quarks son anti-bariones. 8. Confinamiento del color: las partículas libres no pueden tener un color neto. Por eso los bariones y mesones pueden encontrarse como partículas libres pero no sucede así con los quarks y gluones individuales. 9. Libertad asintótica. A medida que los quarks y los gluones se acercan unos a otros la interacción de color entre ellos tiende a ser nula. La consecuencia de esto es que el movimiento de estas partículas en el interior de por ejemplo un protón, se debe asemejar al movimiento de una partícula libre. Eso si, están limitadas a un volumen que es precisamente el volumen de un protón debido al confinamiento del color que no permite que las partículas con color neto viajen libremente por el espacio. 10. En realidad no se puede determinar los colores presentes en una partícu- la con total exactitud sino solo su estado de color. Este estado de color colapsa a un color cuando se efectúa la medición en una partícula. Para explicar el último punto se examinará nuevamente el caso de un quark. Este en realidad no porta un determinado color todo el tiempo. Mas bien, se encuentra en un estado en donde si pudiésemos medir que color tiene un quark en un instante obtendremos un color. Pero si lo medimos en otro instante obten- dremos otro color. Solo si midiésemos su color muchas veces veríamos un patrón en cuanto al color que aparece en cada medición. Habrán colores mas probables que otros y esa probabilidad depende de en que estado se encuentre el quark. Ese estado puede cambiar, ya que depende de las interacciones con las demás partículas del sistema. Pero al conocer las interacciones ocurridas, el estado de cada partícula se puede calcular. Esa es la misión de la mecánica cuántica, encontrar el estado de las partículas elementales y suponer que los estados de partículas mas complejas como proto- nes, átomos, moléculas, estrellas o incluso el universo entero son superposiciones de los estados de las partículas que lo integran. Ahora bien, para el caso específico de la cromo-dinámica cuántica... ¿Con que estructura matemática se puede modelar el estado de color de una partícula? Para elegirla se puede comenzar describiendo el estado de color de un gluón. Descripción del estado de color de un gluón Se sabe que estos llevan siempre un color y un anti-color. Sus posibles com- binaciones están en el cuadro 4.1. RR RG RB GR GG GB BR BG BB Cuadro 4.1: Posibles combinaciones de color de un gluón. 40
  44. 44. R G B R 0 0 1 G 0 0 0 B 1 0 0 Cuadro 4.2: Tabla de la verdad del estado de un gluón. Para representar uno de los estados posibles de un gluón se puede utilizar una tabla parecida a una tabla de la verdad cuyas filas sean los colores y cuyas columnas sean los anti-colores de manera que coincidan con el cuadro 4.1, tal como se ve en la tabla 4.2. Los valores posibles son 0 y 1. La tabla de la verdad del estado de un gluón se puede representar también como una matriz tal como la siguiente:   0 0 1 0 0 0 1 0 0   (4.50) Notación de Dirac Sabiendo lo que significa cada fila y columna se puede leer este estado en notación de Dirac como (RB+RB) √ 2 . Por motivos didácticos, en este caso, se utili- zaron colores sobre los símbolos para relacionarlos con los colores que aparecen en el cuadro 4.1, sin embargo, la notación de Dirac no contiene dichos colores. Ahora bien, para entender está notación hay que definir los siguientes con- ceptos: Definición 4.13. Sea H un espacio de Hilbert sobre un cuerpo F. Entonces h ∈ H es un vector denotado por |h y denominado ket h. (Esto se hace para dejar el término vector solo en el caso de que se trate de un elemento del espacio euclídeo ya sea R3 o R4 ). Definición 4.14. H∗ es el espacio dual de H, es decir, el espacio de funciones lineales de H. Definición 4.15. El producto interno es el isomorfismo φ : H → H∗ dado por φ(h) = φh, donde para todo g ∈ H entonces φh(g) = h|g . Para 2 funciones φ, ϕ ∈ H, entonces φ|ϕ = φ(x) · ϕ∗ (x)dx (4.51) Definición 4.16. Un operador es un mapa que recibe de entrada un ket y produce otro ket. 41
  45. 45. Definición 4.17. Un operador lineal es un mapa que cumple con los axiomas de linealidad usuales para un mapa lineal. En este caso son: |A + B = |A + |B (4.52) |αA = α |A (4.53) Donde |A , |B ∈ H y α ∈ F En notación de Dirac dados un operador lineal ˆA y un ket |φ entonces ˆA |φ es también un ket. Si el espacio donde están definidos los ket es Cn , entonces los ket se pue- den representar como matrices de n filas y 1 columna. A su vez, los bra se representarían como matrices de 1 fila y n columnas. Esta notación es la que se utilizará en este artículo para representar los estados de color de las partículas. Estados posibles del gluón en notación de Dirac Por lo tanto, retomando el caso del gluón en un estado específico, se puede ver que si se efectuara una medición en el gluón cuyo estado de color es descrito por la matriz (4.50), este tendría igual probabilidad de encontrarse portando el color R junto con el anti-color B o, en vez de eso, portando el anti-color R y el color B. De esta manera se pueden representar todos los demás estados posibles de un gluón. Al conjunto de matrices resultantes se le conoce como matrices de Gell-Mann y sus elementos son: λ1 =   0 1 0 1 0 0 0 0 0   λ2 =   0 −i 0 i 0 0 0 0 0   λ3 =   1 0 0 0 −1 0 0 0 0   λ4 =   0 0 1 0 0 0 1 0 0   (4.54) λ5 =   0 0 −i 0 0 0 i 0 0   λ6 =   0 0 0 0 0 1 0 1 0   λ7 =   0 0 0 0 0 −i 0 i 0   λ8 = 1 √ 3   1 0 0 0 1 0 0 0 −2   Ellas pueden representar a los 8 tipos de gluones que en notación de Dirac son: 42
  46. 46. RG + GR √ 2 − i RG − GR √ 2 RB + BR √ 2 − i RB − BR √ 2 (4.55) GB + BG √ 2 − i GB − BG √ 2 RR − GG √ 2 1 √ 3 RR + GG − 2BB √ 2 Nótese como son 8 valores posibles en vez de 9. Esto es así porque experimen- talmente no se han encontrado gluones en el estado RR+GG+BB√ 2 , denominado estado de singlete el cuál corresponde a la matriz 1 0 0 0 1 0 0 0 1 El estado de singlete es el estado en el cual se encuentran los mesones, y bariones. Las partículas en este estado no interaccionan con partículas que estén en los demás estados. Es decir, no interaccionan con quarks y gluones individuales. Si aplicamos la misma noción usada para representar los estados de color de un gluón con una tabla de la verdad como la tabla 4.2, solo que aplicándola para representar el estado de color de un quark, vemos que este se puede representar como un vector columna donde cada fila corresponde a un color. Un ejemplo de esto es el vector 1 0 0 que se interpreta como un quark con color R. En el caso de un anti-quark siguiendo la notación de la tabla 4.2 en donde los anti- colores son columnas, entonces sus estados de color se pueden representar como vectores filas. Un ejemplo de esto es el vector 1 0 0 donde se puede leer que el anti-quark posee el anti-color R. Todas las matrices de Gell-Mann se pueden denotar como λi donde i ∈ N en el intervalo [1, 8]. Todas ellas son matrices de 3 × 3 sin traza y hermíticas por lo que pueden generar elementos del grupo de matrices unitarias. Este grupo tiene un nombre especial, a saber, U(1) por la frecuencia con la que se le encuentra una aplicación científica, y contiene a todas las matrices de 3×3 de determinante 1. Si a esto último se le añade la condición de que las matrices deben ser sin traza, entonces el grupo se denomina SU(3). Lagrangiano de la interacción fuerte Siguiendo la notación de escribir las matrices de Gell-Mann como λi enton- ces se puede formular una expresión para un campo equivalente al cuadri-vector campo A para el campo electromagnético. Ya vimos como A tiene una 4 com- ponentes, 1 temporal asociada al potencial escalar y 3 espaciales asociadas al potencial vector. 43
  47. 47. De esta misma manera se puede escribir el campo gluónico pero deben to- marse en cuenta los 8 tipos de gluones que existen. Esto se hace escribiendo la expresión del campo de la siguiente manera: An = (r, t) = [An 0 (r, t), An 1 (r, t), An 2 (r, t), An 3 (r, t)] = φn (r, t), An (r, t) (4.56) donde: • n ∈ {1, 2, 3, 4, 5, 6, 7, 8} • An es el campo gluónico generado por el gluón de tipo n. • r: es la posición del gluón generador del campo. • t: es el tiempo. • φn : es el potencial escalar gluónico. • An: es el potencial vector gluónico. Para encontrar el campo gluónico generado por todos los gluones se parte del hecho de que las matrices de Gell-Mann son generadores del grupo SU(3). A su vez se sabe que los generadores de un grupo tienen la propiedad matemática de que forman una base de un campo vectorial por lo que el campo gluónico debido a los 8 gluones se debe a una superposición de los 8 gluones posibles, o mejor dicho, de los 8 estados de color posibles para los gluones. Para lograr obtener la expresión matemática se utilizan las matrices de Gell- Mann de la siguiente manera: Por conveniencia: ta = λa 2 Cada componente del campo gluónico es una matriz de 3 × 3: Aα = taAa α = t1A1 α + t2A2 α + t3A3 α + t4A4 α + t5A5 α + t6A6 α + t7A7 α + t8A8 α O escribiendo la expresión anterior como un cuadri-vector de matrices de 3 × 3: A = A0, A1, A2, A3 El campo gluónico total es: A = taAa Una cuestión adicional que hay que considerar es el significado de 3 canti- dades bajo el contexto de la Cromo-dinámica Cuántica y mas generalmente del Modelo estándar de la física de partículas, a saber: 44
  48. 48. • Un vector es un objeto que se transforma como un cuadri-vector bajo transformaciones de Lorentz. • Un escalar es un objeto que es invariante bajo transformaciones de Lo- rentz. • Un espinor es un objeto que se transforma como un vector en el contexto del Modelo Estándar bajo transformaciones de Lorentz excepto por un detalle: Que ante una rotación, este rota solo la mitad del ángulo que rotaría un vector. Basándose en los conceptos anteriormente expuestos se puede escribir una expresión matemática que describa la interacción que tiene una partícula con un campo de fuerza de color. Esta interacción depende del estado de color que posea la partícula misma. La expresión mas simple que satisface todos los requisitos anteriormente expuestos es la siguiente: LQCD = ψ(i(γµ Dµ)ij − mδij)ψj − 1 4 Ga µνGµν a (4.57) donde: • ψi(x): es el campo de un quark indexados por i y j. • Dµ: es la derivada covariante de calibre. • γµ : son las matrices de Dirac que conectan los espinores con los vectores bajo transformaciones de Lorentz. • Ga µν = ∂νAa µ + gfabc Ab µAc ν. • Aa µ: son los campos gluónicos. • fabc : Son las constantes de estructura del grupo SU(3). Este lagrangiano permite conocer como se comporta el estado de color de una partícula bajo la acción de un campo de fuerza de color. Ahora bien, para conocer el comportamiento de la partícula hay que formular el lagrangiano de una partícula con un término de energía cinética y otro de energía potencial. El término que da cuenta de la energía potencial debe incluir los potenciales producidos por todas las fuerzas a las cuales la partícula se ve sometida. Por ejemplo en el caso de un quark, este se ve bajo la acción de la fuerza electromagnética, la fuerza débil y la fuerza de color, así que esto se debe añadir a la expresión del lagrangiano para un quark. No pasa lo mismo con un gluón ya que solo interactúa con partículas que tengan estados de color diferentes al estado de singlete. Se ve entonces que no todas las partículas interaccionan con las 3 fuerzas. Debido a esto, la expresión potencial en el lagrangiano es dividida en sectores. Estos sectores son: 45
  49. 49. • El sector electro-débil que describe la interacción de una partícula un campo de fuerza electromagnética y fuerza débil. • El sector cromo-dinámico que describe la interacción de la misma par- tícula pero con un campo de fuerza de color. • Los términos de masa explican como las partículas mas masivas decaen en partículas con menos masa. También como todos los portadores de la fuerza electro-débil, en realidad son partículas sin masa pero, excepto por el fotón, adquieren masa por medio de un proceso conocido como mecanismo de Higgs. • Las partículas fantasma de Higgs llevan cuenta de ciertas redundancias que aparecen con la interacción entre las partículas con campos extraños producto del mecanismo de Higgs. • Los fantasmas de Faddeev-Popov llevan cuenta de las redundancias causadas por las interacciones electro-debiles. Saber que partícula interactúa con cual fuerza depende de las propiedades materiales presentes en la partícula y esta información puede ser extraída del lagrangiano. Una representación esquemática que deriva de esto es la figura 4.3. Por lo tanto se puede ver que no se está considerando el comportamiento de una partícula, que equivale a estudiar el lagrangiano completo sino solo el comportamiento de una de las interacciones que pueden llegar a afectar una partícula (el sector cromo-dinámico). Entonces, ¿Que probabilidad tiene la partícula X de experimentar un proce- so? La respuesta se consigue al resolver el lagrangiano asociado de esa partícula. Pero una partícula puede experimentar múltiples procesos a la hora de pa- sar de un estado a otro. A la secuencia de estos procesos dependientes se le denomina un camino. A su vez, una partícula puede tomar distintos caminos al cambiar de estado. La probabilidad de que tome un camino u otro depende de las probabilidades de los procesos que los componen. Entonces, ¿que probabili- dad tiene la partícula X de tomar un camino para cambiar de un estado a otro? La respuesta se considera en el capítulo denominado integrales de Feynman. 46
  50. 50. Figura 4.3: Resumen de las interacciones entre las partículas elementales según el Modelo Estándar. 47
  51. 51. Capítulo 5 Integrales de Feynman 5.1 Introducción Todas las partículas fundamentales están determinadas por sus propieda- des físicas. Cada propiedad posee un valor. Este valor es un elemento de un conjunto de posibles valores para esa propiedad. Al juego de valores que tiene la partícula en un tiempo determinado se le llama el estado de la partícula. Como se puede ver, en general, todas las propiedades a la larga dependen del tiempo. Cuando transcurre un intervalo de tiempo estas propiedades pueden cambiar, o mejor dicho, pueden cambiar los valores presentes en ellas. Entonces se dice que la partícula cambió de estado o que pasó de un estado inicial a uno final. 5.2 Probabilidad Para que una partícula pase de un estado A a un estado B necesita experi- mentar una secuencia de procesos físicos. A esta secuencia se le conoce como camino. Cuando una partícula cambia de estado puede hacerlo por uno u otro camino donde habrán caminos mas probables que otros. En la Mecánica Clásica se puede determinar que camino tomará la partícula con total precisión, es decir, solo hay un camino posible, y los demás no son posibles. No es ese el caso de la Mecánica Cuántica donde a lo sumo se conocerá la probabilidad de que la partícula tome un camino u otro. Al tomar en cuenta todos los caminos posibles se puede saber que probabilidad tiene realmente la partícula de llegar al estado B si se encuentra actualmente en el estado A. Para averiguar la probabilidad de que la partícula pase del estado A al B se utiliza la siguiente ecuación: P = |S|2 (5.1) 48
  52. 52. donde S es la amplitud de probabilidad y P la probabilidad de que ocurra el evento. Cabe destacar que S es un número complejo porque es una amplitud de probabilidad en vez de una probabilidad. A su vez, S es la suma de todos los caminos probables. Como cada ampli- tud de probabilidad de que la partícula tome un camino es independiente de que tome otro camino, entonces las amplitudes de probabilidad se suman. Esto ocurre en el caso de los eventos independientes. En términos matemáticos se escribe de la siguiente manera: S = i pi (5.2) donde cada pi es la amplitud de probabilidad que tiene la partícula de tomar un camino i. Cada camino i puede ser un proceso complejo que se puede dividir en pro- cesos mas simples. Cada uno de estos procesos depende de lo que haya ocurrido anteriormente con la partícula en el camino, es decir, depende de los procesos anteriores. Entonces los procesos son eventos dependientes entre si. En este caso la amplitud de probabilidad asociada al camino es el producto de las am- plitudes de probabilidad de cada proceso que lo compone. Cada una de estas amplitudes de probabilidad se calcula al resolver las ecuaciones de movimiento que se deducen del lagrangiano de la partícula. Siguiendo la metodología de presentar primero el caso mas sencillo como introducción al caso de estudio, primero se analizará este asunto para la elec- trodinámica cuántica. Después se utilizarán los mismos conceptos para mostrar como se calculan las probabilidades con eventos donde esté involucrada la in- teracción fuerte. 5.3 Diagramas de Feynman Los procesos mas simples de un determinado evento se pueden representar gráficamente gracias a los diagramas de Feynman. En estos se dibuja un camino o la sección de un camino, seguido por unas partículas en un plano xy. El eje x u horizontal se corresponde al espacio mientras que el eje y o vertical representa al tiempo. En el caso de la electrodinámica cuántica los procesos mas simples que se pueden encontrar son 3[8], y se pueden representar en los diagramas de Feynman siguiendo estas convenciones: • Una línea ondulada representa a un fotón que se desplaza desde un punto en el espacio tiempo hasta otro punto en el espacio tiempo. • Una línea recta representa a un electrón que se desplaza desde un punto en el espacio tiempo hasta otro punto en el espacio tiempo. 49
  53. 53. Figura 5.1: Desplazamiento de un fotón. Figura 5.2: Desplazamiento de un fermión. Figura 5.3: Absorción de un fo- tón por un electrón. • La unión de una línea recta con una ondulada en un punto del plano representa un electrón que emite o absorbe un fotón en algún punto del espacio tiempo. La representación de cada proceso simple se encuentra en la figura 5.3. Con esta representación visual se puede saber cual proceso es experimentado antes o después por la partícula si esta toma un determinado camino. También cuales procesos son posibles y cuales no. Además ayudan a entender lo que esta ocurriendo de una manera mas sencilla que observando una expresión matemá- tica. Sin embargo, los diagramas de Feynman aportan mas que solo información cualitativa. 5.4 Reglas de Feynman Gracias a las reglas de Feynman cada diagrama corresponde a una expre- sión matemática que una vez resuelta aportará información cuantitativa acerca del fenómeno físico. Esta información es la amplitud de probabilidad asociada a cada camino posible que puede tomar la partícula cuando pasa de un estado a otro. En la electrodinámica cuántica los fenómenos mas comunes tienen que ver con colisiones y dispersiones de partículas (scattering). En el estudio de estos fenómenos es mas importante conocer el momentum o cantidad de movimiento de las partículas que sus posiciones. Por lo tanto es conveniente modificar la interpretación de los diagramas de Feynman. Es decir, los mismos diagramas representan otros procesos físicos que 50
  54. 54. α β −→ i /p−m+iε µ ν −→ −iηµν p2+iε α β µ −→ −ieγµ βα (2π) 4 δ(4) (p1 + p2 + p3) α −→ (uα(p, s)) α −→ (¯vα(p, s)) α −→ (¯uα(p, s)) α −→ (vα(p, s)) µ −→ µ k, λ µ −→ µ k, λ ∗ Figura 5.4: Reglas de Feynman para la electrodinámica cuántica son comunes en la teoría de dispersión. Ahora, una línea continua se lee como un electrón que tiene un momentum en un instante de tiempo dado y una línea ondulada representa lo mismo para un fotón. Por su parte un vértice representa la aniquilación de un electrón y la creación de otro junto con la absorción y creación de un fotón. Siguiendo esta convención las reglas de Feynman para el caso de la teoría de dispersión en la electrodinámica cuántica son como aparecen en la figura 5.4. Para ilustrar como se utilizan estas reglas, ellas se aplicarán al fenómeno conocido como dispersión de Compton donde un electrón y un fotón experi- mentan una colisión elástica. El diagrama de Feynman correspondiente aparece en la figura 5.5. Entonces la amplitud de probabilidad para el término de primer orden de la serie de perturbación de la matriz de dispersión o S-Matriz es: Mfi = (ie)2 ¯up s / (k , λ )∗ /p + /k + me (p + k)2 − m2 e /(k, λ)u(p, s) + (ie)2 ¯u(p , s ) (k, λ) /p + /k + me (p − k ) 2 − m2 e /(k , λ )∗ u(p, s) (5.3) Una vez hallada la amplitud de probabilidad Mfi se puede calcular la sección 51
  55. 55. Figura 5.5: Caption µ, a ν, b −→ −iδab gµν k2+i − (1 − ξ) kµkν (k2)2 Figura 5.6: Propagación de un gluón. eficaz de este proceso de dispersión lo que nos dirá la probabilidad de que este proceso descrito por la figura 5.5 llegue a ocurrir. El método para hallar la sección eficaz queda fuera del alcance de esta tesis. 5.5 Diagramas de Feynman y la cromo-dinámica cuántica. Para representar los procesos que ocurren debido a la interacción fuerte se siguen las siguientes convenciones: • Los quarks se representan con la misma representación usada para los demás fermiones en la electrodinámica cuántica. Esto es, una línea sólida con una flecha en la dirección de crecimiento del tiempo. La etiqueta del quark en el diagrama indicará el sabor de este. • Los anti-quarks se representan igual que las demás anti-partículas, con una flecha en la dirección contraria al crecimiento del tiempo. • Los gluones se representan con una espiral tal como aparece en el diagrama 5.6 • Los piones se representan con una línea punteada. Esto aplica también para todos los bosones escalares. Los piones aparecen en el caso de la fuerza fuerte residual como mediadores de dicha fuerza. Estos no serán considerados en el presente trabajo. 52

×