Anuncio

Colapsar
No hay ningún anuncio todavía.

Matrices diagonalizables

Colapsar
X
 
  • Filtro
  • Hora
  • Mostrar
Borrar todo
nuevos mensajes

  • 1r ciclo Matrices diagonalizables

    Hola de nuevo. Estoy algo confuso con una idea. Es la siguiente:

    Según el Teorema Espectral para matrices simétricas, una matriz es Ortogonalmente Diagonalizable si, y solo si, la matriz es simétrica. ¿Esto quiere decir que la matriz de paso Ortogonal, P, será ortogonal directamente? (sin hacer ningún calculo extra; tan sólo colocando los vectores asociados en columnas)

    Recordemos que una matriz es diagonalizable si, y solo si, existe una matriz semejante diagonal, D, tal que:

    A = P·D·P^(-1)

    Para cualquier matriz NO simétrica, al calcular P, ésta no tiene por qué ser ortogonal. ¿Hay que hacerla ortogonal? ¿O se queda tal y como está?

    Cuando digo que una matriz es ortogonal, simplemente quiero decir que sus columnas son todas ortogonales entre sí. Es decir, que P^(-1) = P^(t) (su inversa coincide con su traspuesta).

    Espero que podáis resolverme la duda.

    Buenas noches
    Última edición por skinner; 21/08/2011, 00:11:52.

  • #2
    Re: Matrices diagonalizables

    Hola skinner, el Teorema Espectral dice que toda matriz simétrica () es diagonalizable sobre .

    La matriz de cambio de base no es diagonal como indicas, es más es absurdo decir que y a la vez que es diagonal, ya que si es diagonal es simétrica por lo que , entonces estamos diciendo que . Una consecuencia es que

    Tú si tienes una matriz no simétrica puedes diagonalizarla (o no, según cumpla con el Teorema de la Diagonalización), las matrices de cambio de base no tienen porqué ser ortogonales, de hecho creo que nunca lo serán, pero de ello no estoy seguro.

    ¡Saludos!
    [tex=English properties]\dst \begin{aligned}\frac 1 n \sin x = ?\\ \frac{1}{\not{n}}si\not{n}x=?\\ six=6\end{aligned}[/tex]

    Comentario


    • #3
      Re: Matrices diagonalizables

      Escrito por GNzcuber Ver mensaje
      las matrices de cambio de base no tienen porqué ser ortogonales, de hecho creo que nunca lo serán, pero de ello no estoy seguro.
      Pueden serlo, por ejemplo si el cambio de base se corresponde con una rotación
      La única alternativo a ser Físico era ser etéreo.
      @lwdFisica

      Comentario


      • #4
        Re: Matrices diagonalizables

        Escrito por pod Ver mensaje
        Pueden serlo, por ejemplo si el cambio de base se corresponde con una rotación
        También pueden serlo, si las columnas contienen a vectores latentes correspondientes a eigenvalores distintos de una matriz simétrica.

        Mi pregunta es: en caso de no tener una matriz simétrica, evidentemente es muy probable que la matriz de paso P, no sea ortogonal. ¿Hay que hacerla ortogonal usando Gram-Schmidt? Cuando yo escribo la relación A = PDP^-1, ¿la matriz P está en forma ortogonal? en caso negativo, ¿la relación seguiría cumpliéndose si pusiera a P ortogonal?

        Un saludo y espero que puedan solucionarme las dudas en negrita. Llevo más de una semana preguntando a mi profesora pero no me proporciona ninguna respuesta contundente.

        Cuídense
        Última edición por skinner; 22/08/2011, 15:57:38.

        Comentario


        • #5
          Re: Matrices diagonalizables

          Con Gram-Schmidt construyes una base ortogonal a partir de una que no lo es. Si tienes la matriz que representa una forma bilineal simétrica () respecto a una base no ortogonal de un -espacio vectorial de dimensión finita , entonces no será diagonal.

          Como la forma bilineal es simétrica, , entonces si construimos la matriz de una función bilineal así necesariamente dicha matriz será simétrica. Y por el teorema espectral se puede encontrar una base de tal que sea ortogonal, por lo que nos quedaría una matriz diagonal y las matrices de cambio de base serían ortogonales .

          Esto es en el contexto de las formas bilineales simétricas, en particular con el producto escalar. Por otra parte si en vez de una forma bilineal simétrica tenemos simplemente un endomorfismo (una aplicación lineal de un espacio vectorial a sí mismo) la matriz será diagonal, si y sólo si, dada una base de la imagen de cada uno de los vectores que componen la base es un múltiplo de ellos mismos. Independientemente de si son ortogonales o no.


          ¿Hay que hacerla ortogonal usando Gram-Schmidt? Si estás en una forma bilineal al diagonalizar la matriz encontrarás que es ortogonal, o reciprocamente, si ortogonalizas la base obtendrás una matriz diagonal para la forma bilineal.

          ¿La matriz está en forma diagonal?Según la fórmula que pones , estás trabajando con endomorfismos y no con formas bilineales, así que en general no será ortogonal.

          ¿La relación seguiría cumpliéndose si pusiera P ortogonal? Según el Teorema espectral será ortogonal sólo si es simétrica (estamos hablando de endomorfismos) lo cual es muy particular. Y si no es simétrica no será posible.

          ¡Saludos!
          [tex=English properties]\dst \begin{aligned}\frac 1 n \sin x = ?\\ \frac{1}{\not{n}}si\not{n}x=?\\ six=6\end{aligned}[/tex]

          Comentario


          • #6
            Re: Matrices diagonalizables

            GNZcuber, antes de nada gracias por tus aclaraciones. Por desgracia, no tengo tanto nivel de álgebra como el que tu posees... Por ello me dispongo a hacerte varias preguntas que, de seguro, serán una ayuda ideal para "descifrar" tu mensaje anterior (por cierto, admiro los profundos conocimientos que posees sobre Álgebra, el cual es muy útil en ingeniería)

            ¿A qué llamas Forma Bilineal? Tiene algo que ver con una Transformación Lineal? Sea cual sea tu respuesta: ¿qué tiene que ver con la matriz de paso ortogonal, P? en ESTE ENLACE tienes mis apuntes sobre el tema, para que puedas hacerte una idea de mi nivel, más o menos..... Como podrás observar, ahí no me hablan ni de lejos sobre Formas Bilineales, jeje

            Sé qué es un cambio de base (o eso creo!). ¿Pero qué tiene que ver aquí tal cosa?

            ¿Por qué a P se la llama "Matriz de paso ORTOGONAL"? Según tu respuesta anterior, P puede ser nombrada de tal manera si, y solo si, A (nuestra matriz de partida) es simétrica, de lo cual deduzco que para matriz no-simétricas, P se llamará "Matriz de Paso", a secas. ¿No?

            Imaginemos una base de n vectores NO-ORTOGONALES. Necesitamos que sean ortogonales entre sí, y para ellos usamos Gram-Schmidt. ¿Estos nuevos vectores pertenecen a la base anterior? En general, ¿qué relación hay entre una Base de E, y una Base Ortogonal de E?

            ------

            Como consecuencia de mis dudas, espero que entiendas que no haya entendido lo siguiente en tu mensaje:

            ¿Hay que hacerla ortogonal usando Gram-Schmidt? Si estás en una forma bilineal al diagonalizar la matriz encontrarás que es ortogonal, o reciprocamente, si ortogonalizas la base obtendrás una matriz diagonal para la forma bilineal.

            ¿La matriz está en forma diagonal? (esto sí lo he entendido)

            ¿La relación seguiría cumpliéndose si pusiera P ortogonal? Según el Teorema espectral será ortogonal sólo si es simétrica (estamos hablando de endomorfismos) lo cual es muy particular. Y si no es simétrica no será posible.

            Conforme a ésta última pregunta (¿La relación seguiría cumpliéndose si pusiera P ortogonal?) creo que no me has entendido del todo. Siendo A una matriz cualquiera NO-SIMÉTRICA (porque si fuese simétrica, P sería ortogonal directamente), al obtener su matriz de Paso (P) (la cual será NO-ORTOGONAL) y aplicarle Gram-Schmidt por columnas (para hacer P Ortogonal), ¿seguirá cumpliéndose A=PDP^(-1)?

            -----------

            Espero que no te enfades demasiado conmigo, quisiera aprender más sobre Álgebra... pero como aquél que dice, el examen "está a la vuelta de la esquina" (con decirte que es el 1 de septiembre...). Además, mis apuntes como habrás podido observar arriba, son más bien escasos en conocimientos...

            Muchas gracias, de verdad.

            Cuídate!
            Última edición por skinner; 23/08/2011, 00:01:09.

            Comentario


            • #7
              Re: Matrices diagonalizables

              Hola skinner,

              Antes de saber qué es una forma bilineal deberías saber qué es una forma lineal, éstas són elementos del espacio dual () de un -espacio vectorial .

              Supongamos dos -espacios vectoriales y de dimensiones y respectivamente. Se puede definir el -espacio vectorial de todas las aplicaciones lineales de a (). Cualquier aplicación lineal que puedas imaginarte está incluida en este espacio vectorial.¹

              Un caso particular donde es el espacio dual de un -espacio vectorial (siempre necesita referencia), donde dada una base de , su base dual cumple que (la delta de Kronecker).

              Un ejemplo de lo anterior para que no parezca tan abstracto, si tenemos la base canónica en , llamémosle , su base dual será , donde representa el valor de la primera coordenada del vector, el valor de la segunda coordenada, y el valor de la tercera coordenada.

              Así , fíjate que el resto de valores será "0", excepto para .

              ------------------------------------------------------------------------------------

              Ahora para una forma bilineal el concepto se amplía, a dos vectores. Sea un -espacio vectorial de dimensión finita , un cuerpo (o campo). Sea una forma bilineal, sean y


              Para que no haya tanta letra prefiero denotar la función como , como suele hacerse. Que sea bilineal significa que es lineal respecto de cada una de las entradas. Si y :


              Si aparte, la forma bilineal es simétrica tendrás que .

              Como siempre, cuando quieres escribir la función matricialmente necesitas una base. Pero a diferencia de cuando tienes aplicaciones lineales, que debes escribir las coordenadas de la imagen de los vectores de la base de salida en columnas respecto a la base de llegada, en este caso debes saber el resultado de la aplicación de los vectores de la base y colocarlos en ese orden. Para clarificarlo un ejemplo.

              Sea la matriz de la forma bilineal será:


              Si la forma bilineal es simétrica, la matriz anterior será simétrica.

              --------------------------------------------------------------------------------

              Bueno, supongo que ha sido bastante teoría por el momento. Tus apuntes son muy escasos en teoría, no me agradan nada. En otro post pondré lo que realmente necesitas, y es que me debería mirar la demostración, porque es eso, no son definiciones, sinó que el hecho que las matrices de paso en una aplicación lineal cumplan ser una el inverso de la otra, y en el caso de una forma bilineal una la transpuesta de la otra sucede de forma que haya coherencia.
              ------------------------------------------------------------------------------

              Escrito por skinner
              Sé qué es un cambio de base (o eso creo!). ¿Pero qué tiene que ver aquí tal cosa?
              Las matrices de paso se obtienen a partir de cambios de base, de otra forma ¿Cuál sería el argumento de modificar las matrices mediante matrices de paso? ¿De qué sirve sinó?

              Con respecto a la pregunta de "Matriz de paso ortogonal", nunca lo había escuchado, de hecho matriz de paso tampoco solemos usar, sinó que decimos la matriz del cambio de base.

              Escrito por skinner
              Imaginemos una base de n vectores NO-ORTOGONALES. Necesitamos que sean ortogonales entre sí, y para ellos usamos Gram-Schmidt. ¿Estos nuevos vectores pertenecen a la base anterior? En general, ¿qué relación hay entre una Base de E, y una Base Ortogonal de E?
              Está claro que no, por definición una base de un -espacio vectorial es una colección ordenada de vectores de dicho espacio linealmente independientes de manera que generen todo . Si tienes una base no ortogonal, es que almenos uno de ellos no es ortogonal a otro, si lo cambias por el método que quieras, la nueva base ortogonal no contenerá la base anterior, sinó como máximo a de ellos.

              No sé a qué relación quieres referirte, pero son bases que forman un mismo espacio vectorial, y son del mismo cardinal y las puedes relacionar mediante una matriz de cambio de base ¿Cuál? Eso depende mucho, hay infinitas bases y también infinitas bases ortogonales, dentro de un mismo producto escalar (el cual define la ortogonalidad) y de productos escalares hay infinitos.

              Escrito por skinner
              ¿La relación seguiría cumpliéndose si pusiera P ortogonal?
              A diferencia de lo que crees no sé mucho sobre Álgebra, pero tanto en Física como en Matemáticas se hace mucho más Álgebra que en una ingeniería. Así que respondo pero de forma algo dudosa esta cuestión.

              No creo que se cumpla, supongamos que tienes la matriz diagonalizada , supongamos que fuera posible hacerla ortogonal (cosa que dudo), y la nueva matriz sería (¿Cómo sé que debe ser inversa y no transpuesta? Pues es un cambio de base donde la aplicación es la identidad). Por lo que tendríamos


              Pues la matriz que nos hemos esforzado que sea ortogonal, debido al cambio de base ahora no es la matriz de paso. Si intentamos hacer lo mismo con nos pasaría igual. Podríamos sacar la matriz y combinarla con , pero nada nos asegura que dicho producto sea ortogonal. De hecho tendríamos:


              Si queremos que multiplicando por : (ya que P' es ortogonal por construcción). ¿Qué hemos obtenido? Pues que es ortogonal y por lo tanto P ya era ortogonal ... absurdo, puesto que hemos supuesto que no lo era.

              Ahora estoy bastante más convencido que no es posible .


              ¡Saludos!

              P.D.: Podrías intentar mirarte algunos libros de Álgebra lineal, yo he usado algunos que me agradaron bastante, pero son de mi universidad, están en Catalán y no están traducidos, y no conozco más.


              ¹ Las aplicaciones lineales tienen las siguientes propiedades. Sean -espacios vectoriales, sean aplicaciones lineales, y sean , entonces, si se tiene


              O englobando ambas en una condición,

              [tex=English properties]\dst \begin{aligned}\frac 1 n \sin x = ?\\ \frac{1}{\not{n}}si\not{n}x=?\\ six=6\end{aligned}[/tex]

              Comentario


              • #8
                Re: Matrices diagonalizables

                Menudo post Ha sido una respuesta magistral!

                Te estaré muy agradecido GNZcuber... podrías haber dedicado esa media hora (o más) a hacer tus cosas, pero has decidido resolverme las dudas y aportar algo a la comunidad. Y eso es de admirar.

                Un saludo!

                Comentario

                Contenido relacionado

                Colapsar

                Trabajando...
                X