Anuncio

Colapsar
No hay ningún anuncio todavía.

Multiplicación de matrices y Determinantes

Colapsar
X
 
  • Filtro
  • Hora
  • Mostrar
Borrar todo
nuevos mensajes

  • Divulgación Multiplicación de matrices y Determinantes

    Hola! Llevo ya unos días en el que sólo aparece una pregunta en mi cabeza: "¿por qué...?", así que voy a ello.


    ¿Por qué las matrices se multiplican como se multiplican y por qué los determinantes se resuelven como se resuelven?

    - Quiero decir, ¿por qué las matrices siguen, por ejemplo, la Regla de Sarrus y no son de otra forma?

    - Y en el caso de una matriz de orden dos, por qué sale un signo negativo, por qué se restan y :

    i\hbar \frac{\partial \psi(\vec{r};t) }{\partial t} = H \psi(\vec{r}; t)

    \hat{\rho} = \sum_i p_i \ket{\psi_i} \bra{\psi_i}

  • #2
    Re: Multiplicación de matrices y Determinantes

    Para entender el producto de matrices has de saber(si no lo sabes ya) que las aplicaciones lineales entre espacios vectoriales tienen una matriz asociada, es decir, que trabajar con aplicaciones lineales y con matrices es equivalente. En el momento que hacemos composición de aplicaciones esto nos da una nueva aplicación que tendrá su matriz asociada y esta es el resultado de hacer el producto que conoces y que se define de esa manera. Si f y g son aplicaciones estas tienen sus matrices asociadas, f->A y g->B; A,B matrices, así que f·g->C=A·B.

    Los determinantes se resuleven como se resulven porque si, tenemos las definiciones equivalente del determinante de una matriz cuadrada y a partir de ahí encontramos más simples para calcularlos, el signo negativo sale de la definición de determinante, aquí tienes la definición y también demuestra el ejemplo que pones tú https://es.wikipedia.org/wiki/Determ...e_c.C3.A1lculo, no es que los determinantes de 3x3 sigan la regla de sarrus sino que la regla de sarrus sale de calcular el determinante de una matriz 3x3.

    Comentario


    • #3
      Re: Multiplicación de matrices y Determinantes

      También sobre la matriz hay otras pistas que llevan a la multiplicación, por ejemplo los sistemas de ecuaciones lineales:



      Si ya desde un punto asocias las matrices:



      Y queremos hacer un "producto" tal que lleve a las ecuaciones anteriores, tendríamos que definir el producto:

      En dónde (como cansa escribir los sumatorios) también se puede usar el convenio de sumación de einstein y escribir:
      Y esto por poner un ejemplo, hay otros que respaldan esta multiplicación.

      Sobre los determinantes, tampoco lo acabo de entender, no te puedo decir, pero aparecen por montones de lados "sin querer".

      Un saludo
      Última edición por alexpglez; 11/09/2015, 13:39:57.
      [TEX=null] \vdash_T G \leftrightarrow Consis \; \ulcorner T \urcorner [/TEX]

      Comentario


      • #4
        Re: Multiplicación de matrices y Determinantes

        Yo haría otra pregunta de carácter algo más profundo: ¿por qué llamamos PRODUCTO a algo que poco o nada tiene que ver con el producto de números enteros?
        El producto de matrices es una definición, eso quiere decir que se multiplican como se multiplican porque alguien lo decidió de esa manera. ¿Se te ocurre otra operación entre matrices tal que sea interna (el resultado sea otra Matriz) para poderla llamar producto? Seguro que se te ocurren muchas, ¿pero qué propiedades le da tal definición a las matrices?
        Bueno, en matemáticas lo que interesa en un conjunto es darle estructura para que no sea un conjunto a secas. Por ejemplo, considera el conjunto a secas de las matrices cuadradas de orden n. Estas matrices no tienen ninguna operación entre ellas definida, por lo que ahora mismo no tienen ninguna utilidad. Lo que necesitamos es definir unas operaciones internas entre ellas, llámales , tal que podamos identificar con la suma de enteros de toda la vida y con el producto de enteros de toda la vida, que son las dos operaciones internas que conocemos en los enteros. ¿Y para qué? pues básicamente para que podamos exportar las nociones a un conjunto totalmente desconocido y artificial (¿matrices cuadradas de orden n?) de otro conocido y "natural" como son los números enteros. Esto parece una tontería, pero si clasificamos los conjuntos abstractos en diversas estructuras, nos permite sacar unas propiedades globales de esas estructuras y compararlas con los otros que tengan la misma estructura. Por ejemplo, si a las matrices cuadradas de orden n le añades dos operaciones (digamos suma y producto) tal como te las han definido, se observa que entran dentro de una estructura que se le conoce como anillo. Básicamente un anillo A es un conjunto con dos operaciones definidas (A,+,·) que cumple lo siguiente:
        -A es cerrado bajo + (la suma de dos matrices cuadradas de orden n es una matriz de orden n)
        -La operación + es asociativa (la suma de matrices lo es)
        -Existe elemento neutro para la op. + (la matriz cuadrada con todos sus términos 0 es neutra con respecto a +)
        -Existe elemento simétrico para la op. + (dada una matriz M, la matriz -M cumple que M+(-M) es igual al neutro con respecto a +)
        -La operación + es conmutativa (claramente lo es la suma de matrices)
        -A es cerrado bajo la operación · (el producto de matrices cuadradas es una matriz cuadrada)
        -La operación · es asociativa (lo es en matrices)
        -La operación · es conmutativa con respecto a + (A (B+C) = AB + AC)

        Y ya está. Y puedes comprobar que hay muchos conjuntos en los que se pueden definir dos operaciones y tienen estructura de anillo. Sin ir más lejos, observa que la suma y el producto de enteros cumplen estas mismas propiedades, por lo que los números enteros son un anillo.

        Obviamente luego las matrices tienen muchas utilidades, se pueden asociar a aplicaciones lineales como ya te han comentado entre otras cosas. Pero eso no resuelve mucho porque cuando te definan las aps. lineales, te definirán el producto como la ap. lineal que tiene como matriz asociada el producto de sus matrices asociadas
        Los determinantes dejan de ser una operación interna y pasa a ser una aplicación que manda matrices a números reales. Aplicaciones de este tipo hay muchas, solo que la aplicación determinante tiene utilidad para muchas cosas alguna de las cuales ya habrás podido comprobar.

        Por cierto, te dejo otra pregunta al aire. Piensa en los vectores del plano.. ¿qué operación conoces sobre ellos? Te habrán enseñado a sumarlos. Te han enseñado también el producto escalar (que no es interna porque el resultado no es un vector) y el producto vectorial (que no llega a ser interna porque el producto vectorial de dos vectores del plano es un vector que "se sale" del plano [añadido: acabo de ver que preguntabas esto en otro hilo X|]). ¿Es que acaso no se puede definir un producto entre vectores de que sea interno y cumpla unas propiedades similares al producto en ? Posiblemente se te ocurra alguna, pero de hecho ya hay una que conoces. Seguro que te han enseñado que los números complejos de la forma se pueden asociar con el vector del plano , y luego te han definido la multiplicación de complejos ¿Qué ocurre aquí? La respuesta es simple. la operación la podemos definir según la estructura que le queramos dar al conjunto. Para ciertas cosas nos interesará una cierta estructura donde no esté definido el producto interno (los llamados espacios vectoriales) y para otras cosas nos interesa dar estructuras con dos operaciones muy potentes (el caso de los llamados cuerpos, como ocurre con los reales o los complejos).

        Saludos,
        Última edición por angel relativamente; 11/09/2015, 17:04:58.
        [TEX=null]k_BN_A \cdot \dst \sum_{k=0}^{\infty} \dfrac{1}{k!} \cdot 50 \cdot 10_{\text{hex}} \cdot \dfrac{2\pi}{\omega} \cdot \sqrt{-1} \cdot \dfrac{\dd x} {\dd t } \cdot \boxed{^{16}_8\text{X}}[/TEX]

        Comentario


        • #5
          Re: Multiplicación de matrices y Determinantes

          Las tres respuestas que te han dado son excelentes así que yo solo vengo a añadir un poco de contexto histórico. Realmente puedes pensar que los determinantes o el producto de matrices son rebuscados pero para comprenderos hay que fijarse en qué contexto nacieron. Estos objetos matemáticos se construyeron con la misión de desarrollar técnicas de resolución de sistemas de ecuaciones lineales. En su día se llegó a los determinantes viendo que la solución de un sistema de ecuaciones lineal se expresa con sumas, restas, multiplicaciones y divisiones de los coeficientes. Estas combinaciones de coeficientes resultaban en la mayoría de los casos tan largas que simplificaron todas las cuentas mediante los determinantes.

          En cuanto al producto de matrices no se tiene constancia de la razón (no se conserva demasiada cosa porque todo esto data, más o menos, del siglo II a.C. si mal no recuerdo) así que solo sabemos de las motivaciones más modernas, que es lo que ha explicado alar. Toda función (aplicación en la jerga del álgebra) lineal se puede escribir como donde es una matriz y un vector. Si consideras una segunda aplicación lineal al componerla con saldrá una aplicación lineal . De aquí sale el definir el producto de matrices de forma que sea cerrado ( tiene que ser una matriz) y se sigue lo que te ha dicho angel relativamente, que es la forma en la que entendemos el álgebra lineal actualmente.

          Contestando a tus preguntas, la regla para calcular determinantes de matrices dos por dos y la regla de Sarrus no son más que la regla de Laplace puesta de forma simplificada. Para cada determinante de cierto tamaño existe una regla análoga a la de Sarrus. Lo que pasa es que para encontrarla hay que solucionar determinantes, donde es el tamaño, y es muy pero que muy largo de calcularlos aunque sea pequeño (supongo que en clase ya te han dicho que la función factorial crece muy rápidamente). Por eso no te hablan de ellas para determinantes de orden cuatro, cinco o superiores y te dan directamente la regla de Laplace.

          Finalmente decir que el mensaje de angel relativamente es mucho más importante de lo que uno pudiera advertir a primera vista. No solo es una explicación sobre el producto de matrices, si no también de cómo funcionan las matemáticas.
          Última edición por Weip; 11/09/2015, 17:00:14.

          Comentario


          • #6
            Re: Multiplicación de matrices y Determinantes

            Quizá me faltó algo en el mensaje. Weip, sigo sin entender las aplicaciones lineales. Por lo que ahora entiendo mejor, sería una función que de un vector de n componentes, devuelve otro vector de n componentes. Y lineal, que la función, no toma ningún componente cuadrático o de algún exponente (no igual a 1).¿?
            Bueno para completar la multiplicación matricial que escribí antes, me voy a basar en lo anterior.
            Si y=Bx, y z=Ay; z=ABx (siendo z, y, x vectores y A y B matrices)
            Veamos en notación tensorial (lo que he usado antes, sin sumatorios explícitos):
            y_i=B_ij x_j; z_k=A_ki y_i = A_ki B_ij x_j
            Y como los sumatorios no interfieren unos con otros, es evidente que da igual multiplicar Bx antes o AB antes, por tanto podemos llamar multiplicación matricial.
            C_ij=A_ik B_kj.
            En realidad más abstractamente, como curiosidad, la multiplicación matricial, es una operación de multiplicación tensorial y contracción.
            Una multiplicación tensorial simplemente crea un nuevo tensor de un orden mayor siendo la suma de los ordenes anteriores. Ej. A_ij= x_i x_j; C_ijkl = A_ij B_kl
            Pd: un escalar es un tensor de orden cero, un vector de orden 1, una matriz de orden 2, y de órdenes superiores no tiene nombre propio ni una representación tan clara, se puede entender como "arreglos de matrices" o "hipermatrices"
            Y lo que decía antes era: C_ijkl = A_ij B_kl; D_il=C_ihhl (convenio de sumación de einstein, se suma en el h) o en notación matricial: D=AB

            Pd2: aclarar que cuando leas (si sigues leyendo), el convenio de sumación sólo se utiliza y aplica en índices repetidos uno arriba y otro abajo que simbolizan cada uni una transformación distinta, esto es para que produzca invariantes, pero para lo que pretendía escribir nos vale el mensaje así (aunque sea incorrecto)

            Pd3: no he usado latex ya que estoy con el móvil y se hace más largo

            Un saludo
            Última edición por alexpglez; 11/09/2015, 21:30:51.
            [TEX=null] \vdash_T G \leftrightarrow Consis \; \ulcorner T \urcorner [/TEX]

            Comentario


            • #7
              Re: Multiplicación de matrices y Determinantes

              Escrito por alexpglez Ver mensaje
              Quizá me faltó algo en el mensaje. Weip, sigo sin entender las aplicaciones lineales. Por lo que ahora entiendo mejor, sería una función que de un vector de n componentes, devuelve otro vector de n componentes. Y lineal, que la función, no toma ningún componente cuadrático o de algún exponente (no igual a 1).¿?
              Bueno para completar la multiplicación matricial que escribí antes, me voy a basar en lo anterior.
              Una aplicación lineal entre espacios vectoriales es una aplicación que mantiene la estructura de espcio vectorial, que cumple la linealidad, esto es
              tal que donde V,W son espacios vectoriales un sobre un cuerpo, llamemoslo y y . Esto es lo que llamamos aplicación lineal entre espacios vectoriales, esto es así porque como ya he dicho conserva la estructura de espacio vectorial mientras nos "movemos" entre los dos espacios, que basicamente es la suma de vectores y el producto externo por un elemento del cuerpo, queremos que si multiplicamos un vector por un escalar y lo llevamos al otro espacio vectorial sea lo mismo que multiplicar el escalar por la imagen del vector y lo mismo con la suma, que sumar dos vectores en un espacioy luego llevarlos al otro espacio sea lo mismo que llevar cada vector al otro espacio y sumarlos ahí.
              La definición es la combinación de estas dos cosas


              Pero no es necesario que los vectores tengan los mismos componentes ni nada del estilo, únicamente que sean espacios vectoriales y que la aplicación cumpla la definición de linealidad. Por ejemplo la aplicación , es decir, la aplicación que envia todos los elementos de al 0 de R, ves que el primer vector tiene n elementos y el segundo sólo 1
              Y es claramente lineal

              Sobre los exponenciales: no, los exponenciales "molestan" y la mayoría de veces son indicativo de la no linealidad pero lo has de mirar siempre sobre donde te mueves; por ejemplo, la aplicación donde es claramente no lineal si el espacio de llegada es R, pero si en cambio es entonces es lineal.

              Sobre lo de los tensores no te puedo ayudar, espero que me hayas entendido y que el latex me salga bien.
              Última edición por alar; 12/09/2015, 01:58:08.

              Comentario


              • #8
                Re: Multiplicación de matrices y Determinantes

                Escrito por alexpglez Ver mensaje
                Por lo que ahora entiendo mejor, sería una función que de un vector de n componentes, devuelve otro vector de n componentes. Y lineal, que la función, no toma ningún componente cuadrático o de algún exponente (no igual a 1).¿?
                Aquí hay que matizar cosas. Depende del texto que leas, se distingue entre aplicación y función. Si la distinción no se hace, se habla únicamente de aplicación. Sea como sea lo primero que has de hacer es olvidarte del término función y usar el de aplicación (a veces también puedes encontrar el término transformación). Es el vocabulario que se suele usar en el álgebra lineal. Después se suele hablar de componentes para vectores "flecha" pero no es habitual para otros vectores como polinomios o sucesiones. De nuevo cuestión de jerga. Lo de lineal es correcto pero eso es más la idea que has de tener. La definición es la que te ha dado alar, aunque también es típico "partir" la definición de alar en dos condiciones separadas. Lo digo porque a la hora de buscar por internet te encontrarás ambas definiciones, que en realidad son la misma pero dichas de otra manera.

                La importancia de este tipo de aplicaciones es la siguiente. Gracias a ellas podemos construir aplicaciones lineales biyectivas llamadas isomorfismos. Estos isomorfismos conservan las propiedades de los espacios vectoriales. Por ejemplo se puede demostrar que un espacio vectorial de dimensión finita es isomorfo a otro espacio vectorial si y sólo si el segundo tienen también dimensión finita y es igual a la del primero. En pocas palabras: la dimensión es invariante por isomorfismos. Este tipo de aplicaciones tienen una importancia central pues nos indican cuando dos espacios vectoriales son equivalentes desde el punto de vista algebraico. Ejemplo: los polinomios con coeficientes reales de grado menor o igual a 2 y .
                Última edición por Weip; 12/09/2015, 15:08:37.

                Comentario


                • #9
                  Re: Multiplicación de matrices y Determinantes

                  Bueno, intentaré hacer un (muy) breve resumen de lo que me habéis contado para ver si me he enterado.

                  El producto entre matrices es como es porque se ha extrapolado de la definición de producto que se utiliza para números enteros. Este tipo de extrapolaciones es muy frecuente en matemáticas porque nos permite ver propiedades de conjuntos y compararlos entre sí. De esta forma, se ha visto que el conjunto de matrices es, al igual que los números enteros, un sistema anillo (que cumple todas las propiedades que has dicho antes). Igualmente, estas extrapolaciones son en cierto modo flexibles pues, dependiendo de lo que queramos conseguir, podemos otorgarle unas u otras propiedades, como ocurre con los productos de vectores en (p. escalar y vectorial no son internos, pero el producto de números complejos, que también se pueden escribir como vectores, sí lo son).

                  Sin embargo, el producto y determinante de matrices en realidad surgió por su utilidad, puesto que describen las aplicaciones que realizamos (por ejemplo: ).
                  i\hbar \frac{\partial \psi(\vec{r};t) }{\partial t} = H \psi(\vec{r}; t)

                  \hat{\rho} = \sum_i p_i \ket{\psi_i} \bra{\psi_i}

                  Comentario

                  Contenido relacionado

                  Colapsar

                  Trabajando...
                  X