Artículos

11.1: A- Jacobianos, inversos de matrices y valores propios - Matemáticas


En este apéndice recopilamos algunos resultados sobre jacobianos e inversos y valores propios de matrices (2 times 2 ) que se utilizan repetidamente en el material.

Primero, consideramos la expansión de Taylor de una función de valor vectorial de dos variables, denotada de la siguiente manera:

[H (x, y) = begin {pmatrix} {f (x, y)} {g (x, y)} end {pmatrix}, (x, y) in mathbb {R} ^ 2, label {A.1} ]

Más precisamente, necesitaremos expandir Taylor tales funciones a través de segundo orden:

[H (x_ {0} + h, y_ {0} + k) = H (x_ {0}, y_ {0}) + DH (x_ {0}, y_ {0}) begin {pmatrix} { h} {k} end {pmatrix} + mathcal {O} (2). label {A.2} ]

La expansión de Taylor de una función con valores escalares de una variable debería ser familiar para la mayoría de los estudiantes de este nivel. Posiblemente hay menos familiaridad con la expansión de Taylor de una función de valor vectorial de una variable vectorial. Sin embargo, para calcular esto, simplemente Taylor expandimos cada componente de la función (que es una función con valores escalares de una variable vectorial) en cada variable, manteniendo la otra variable fija para la expansión en esa variable en particular, y luego recopilamos los resultados para cada componente en forma de matriz.

Llevando a cabo este procedimiento para el componente (f (x, y) ) de la Ecuación ref {A.1} da:

[ begin {align} f (x_ {0} + h, y_ {0} + k) & = f (x_ {0}, y_ {0} + k) + frac { parcial f} { parcial x} (x_ {0}, y_ {0} + k) h + mathcal {O} (h ^ 2) [4pt] & = f (x_ {0}, y_ {0}) + frac { parcial f} { parcial y} (x_ {0}, y_ {0}) k + mathcal {O} (k ^ 2) + frac { parcial f} { parcial x} (x_ {0}, y_ {0}) h + mathcal {O} (hk) + mathcal {O} (h ^ 2). label {A.3} end {align} ]

El mismo procedimiento se puede aplicar a (g (x, y) ). Al volver a combinar los términos en la expresión vectorial para la ecuación ref {A.1} se obtiene:

[H (x_ {0} + h, y_ {0} + k) = begin {pmatrix} {f (x_ {0}, y_ {0})} {g (x_ {0}, y_ { 0})} end {pmatrix} + begin {pmatrix} { frac { partial f} { partial x} (x_ {0}, y_ {0})} & { frac { partial f} { parcial y} (x_ {0}, y_ {0})} { frac { parcial g} { parcial x} (x_ {0}, y_ {0})} & { frac { parcial g} { y parcial} (x_ {0}, y_ {0})} end {pmatrix} begin {pmatrix} {h} {k} end {pmatrix} + mathcal {O} (2 ), etiqueta {A.4} ]

Por lo tanto, el jacobiano de la ecuación ref {A.1} en ((x_ {0}, y_ {0}) ) es:

[ begin {pmatrix} { frac { partial f} { partial x} (x_ {0}, y_ {0})} & { frac { partial f} { partial y} (x_ {0 }, y_ {0})} { frac { gamma parcial} { x parcial} (x_ {0}, y_ {0})} & { frac { g parcial} { y parcial} ( x_ {0}, y_ {0})} end {pmatrix}, label {A.5} ]

que es una matriz (2 times 2 ) de números reales.

Necesitaremos calcular la inversa de tales matrices, así como sus valores propios.

Denotamos una matriz (2 times 2 ) general de números reales:

[A = begin {pmatrix} {a} & {b} {c} & {d} end {pmatrix}, a, b, c, d in mathbb {R}. label {A.6} ]

Es fácil verificar que la inversa de A viene dada por:

[A ^ {- 1} = frac {1} {ad-bc} begin {pmatrix} {d} & {- b} {-c} & {a} end {pmatrix}. label {A.7} ]

Sea ( mathbb {I} ) la matriz de identidad (2 times 2 ). Entonces los autovalores de A son las soluciones de la ecuación característica:

[det (A - lambda mathbb {I}) = 0. label {A.8} ]

donde "det" es la notación del determinante de la matriz. Esta es una ecuación cuadrática en ( lambda ) que tiene dos soluciones:

[ lambda_ {1,2} = frac {tr A} {2} pm frac {1} {2} sqrt {(tr A) ^ 2-4det A}, label {A.9} ]

donde hemos usado la notación:

(tr A equiv trace A = a + d ), (det A equiv determinant A = ad-bc ).


Funciones de matrices

Un logaritmo de A ∈ ℂ norte×norte es cualquier matriz X tal que mi X = A. Como vimos en el teorema 1.27, cualquier no singular A tiene infinitos logaritmos. En este capítulo A ∈ ℂ norte×norte se supone que no tiene valores propios en ℝ - y "log" siempre denota el logaritmo principal, que recordamos del teorema 1.31 es el logaritmo único cuyo espectro se encuentra en la tira < z : - π & lt Im (z) & lt π>.

La importancia del logaritmo matricial se puede atribuir a que es la función inversa de la matriz exponencial y esta relación íntima conduce a estrechas conexiones entre la teoría y los métodos computacionales para las dos funciones.

Este capítulo está organizado de la siguiente manera. Comenzamos desarrollando algunas propiedades básicas del logaritmo, incluidas las condiciones bajo las cuales la fórmula del producto log (antes de Cristo) = registro (B) + registro (C) sostiene. Luego consideramos la derivada y el condicionamiento de Fréchet. Se derivan las expansiones de las series de Mercator y Gregory y se explican varias propiedades de las aproximaciones diagonales de Padé al logaritmo. Se desarrollan con cierto detalle dos versiones del método inverso de escalado y cuadrado, una que utiliza la forma de Schur y la otra que trabaja con matrices completas. A continuación, se deriva un algoritmo de Schur-Parlett que emplea la escala inversa y el cuadrado en los bloques diagonales junto con una fórmula especial para bloques de 2 × 2. Luego se presenta un experimento numérico que compara cuatro métodos diferentes. Finalmente, se describe un algoritmo para evaluar la derivada de Fréchet.

Comenzamos con una expresión integral para el logaritmo.

Teorema 11.1 (Richter). Para A ∈ ℂ norte×norte sin valores propios en ℝ -,

log (A) = ∫ 0 1 (A - I) [t (A - I) + I] - 1 d t. (11.1)

Prueba. Basta probar el resultado de diagonalizable A, por el teorema 1.20, y por lo tanto es suficiente mostrar que log X = ʃ0 1 (X − 1) [t(X - 1) + l] −1 dt por X ∈ ℂ mentir ℝ - esta última igualdad es inmediata.


DETERMINANTES SLATER

Mitchel Weissbluth, en Átomos y moléculas, 1978

11.1 Elementos de la matriz: general

En la sección 8.4 vimos que las funciones de onda de múltiples electrones, ψ (λ1, λ2,…, Λnorte) debe ser antisimétrico con respecto a un intercambio de las coordenadas (espacio y espín) de dos electrones cualesquiera. La antisimetría se puede asegurar expresando la función de onda en términos de determinantes de Slater como en (8.4-13). Para facilitar el cálculo de varias cantidades físicas, necesitaremos expresiones para elementos matriciales de operadores cuando las funciones de onda están escritas en forma determinante.

Considere un sistema de dos electrones y deje

En ψkI), k es una etiqueta que identifica un orbital de espín particular, es decir, una función de un electrón que depende tanto del espacio como de las coordenadas de espín; el índice i es una etiqueta de electrones. La notación se puede abreviar escribiendo

También se asumirá que para dos orbitales de espín cualesquiera, como ψk y ψl

Esto tiene la consecuencia inmediata de que

donde ψI y ψj son cualquiera de las funciones determinantes (11.1-1) - (11.1-3).

Supongamos ahora que tenemos una suma de operadores de un electrón

dónde F1 y F2 tienen la misma dependencia funcional pero F1 opera solo en el orbital de espín ocupado por el electrón 1, es decir, ψ (λ1), y F2 opera solo en ψ (λ2). Dado que las variables de integración son variables ficticias, podemos escribir

Por tanto, en vista de la relación de ortonormalidad (11.1-5),

con expresiones análogas para 〈ψ2|F| ψ2〉 Y 〈ψ3|F| ψ3〉. Para los elementos fuera de la diagonal

Un operador de dos electrones gramo12 opera en ambos ψ (λ1) y ψ (λ2), como, por ejemplo, en el caso del operador electrónico de repulsión de Coulomb mi 2 /r12. Para un elemento diagonal típico

y para elementos fuera de la diagonal

Estos resultados para el caso especial de los determinantes de Slater (11.1-1) - (11.1-3) pueden generalizarse a determinantes de dimensión arbitraria. Por lo tanto, dejemos

También debemos tomar nota del orden en el que aparecen los orbitales en (11.1-12) y (11.1-13) porque un intercambio de dos columnas (o filas) cambiará el signo de la función de onda determinante. Como se escribió anteriormente, la orden es

Para el elemento de matriz diagonal de F,

en el que el argumento de ak y el subíndice en F han sido omitidos, como lo serán en lo sucesivo, ya que son arbitrarios (ver, por ejemplo, (11.1-7)). El elemento de la matriz 〈B|F|B〉 Tiene la misma forma con respecto a la B orbitales. Para un elemento de matriz fuera de la diagonal

Si A y B difieren en más de un par de orbitales, y

si a k ​​≠ b l, pero el resto de los orbitales en B son los mismos que los de A. El signo más se produce cuando se requiere un número par de intercambios para mover el Bl orbital en el kLa posición o, en otras palabras, cuando la paridad de la permutación es par, el signo menos aparece como resultado de una permutación de paridad impar. (11.1-9a) y (11.1-9c) proporcionan ejemplos de (11.1-18). También puede observarse que para operadores de un electrón como (11.1-14), las funciones producto simples y las funciones determinantes dan los mismos elementos de la matriz.

Los elementos de la matriz diagonal de GRAMO están

y para elementos fuera de la diagonal tenemos los casos:

Si A y B difieren en más de dos pares de orbitales de espín,

Si A y B difieren en un par de orbitales, por ejemplo, a k ≠ b l,

La misma regla que en (11.1-18) se aplica a los signos ± en (11.1-21) y (11.1-22). (11.1-10) y (11.1-11) dan ejemplos de elementos diagonales y fuera de la diagonal.

Ahora se supondrá que el orbital de giro general aI) consiste en un producto de una función espacial φa(rI) y una función de giro ζI a (metros). Este último es siempre una función de giro α o β dependiendo de si metros es +1/2 o −½. Por lo tanto

en el que se ha insertado la ortonormalidad de las funciones de giro.

Si a B C, y D son orbitales de espín de la forma (11.1 −23), el elemento de matriz general de un operador de dos electrones se convierte en

Matriz de bandas

A matriz de bandas es una matriz dispersa cuyos elementos distintos de cero aparecen solo en la diagonal principal y en cero o más diagonales a cada lado de la diagonal principal.

Ilustración

Una matriz diagonal es una matriz de bandas

Una matriz de Hessenberg es una matriz de bandas

Una matriz de corte es una matriz de bandas

Visualización bidimensional de una matriz de bandas

Un bloque de Jordan es una matriz de bandas


Matemáticas 130 Álgebra lineal

    Descripción del curso. Matemáticas 130 es un requisito para las especializaciones de matemáticas y física, y es muy recomendable para las especializaciones en otras ciencias, especialmente, incluidas las especialidades en ciencias de la computación. Los temas incluyen sistemas de ecuaciones lineales y sus soluciones, matrices y álgebra matricial, determinantes y permutaciones de matrices inversas, espacios vectoriales reales n-dimensionales, espacios vectoriales abstractos y sus axiomas, transformaciones lineales, productos internos (productos escalares), ortogonalidad, productos cruzados y sus aplicaciones geométricas subespacios, independencia lineal, bases para espacios vectoriales, dimensión, vectores propios de rango matricial, valores propios, diagonalización matricial. Se discutirán algunas aplicaciones del álgebra lineal, como gráficos por computadora, leyes de Kirchoff y rsquos, regresión lineal (mínimos cuadrados), series de Fourier o ecuaciones diferenciales.
    Véase también Clark y rsquos Catálogo académico.

    Prof. R. Broker. Jueves 4: 00 & ndash5: 00 y con cita previa. Habitación BP 345
    Prof. E. Joyce. MWF 10:00 y ndash10: 50, MWF 1:00 y ndash2: 00. Habitación BP 322
    K. Schultz. Tutoría Lunes 8: 00 & ndash10: 00. Habitación BP 316
    Reuniones de clase regulares, 14 semanas, 42 horas
    Dos exámenes parciales y final vespertinos, 6 horas
    Leer el texto y prepararse para la clase, 4 horas a la semana, 56 horas
    Haciendo tareas semanales, 56 horas.
    Encuentro con tutores o en grupos de estudio, variable de 4 a 12 horas
    Revisión para exámenes parciales y finales, 12 horas
  • Proporcionar a los estudiantes una buena comprensión de los conceptos y métodos del álgebra lineal, descritos en detalle en el programa de estudios.
  • Ayudar a los estudiantes a desarrollar la capacidad de resolver problemas utilizando álgebra lineal.
  • Conectar el álgebra lineal con otros campos tanto dentro como fuera de las matemáticas.
  • Desarrollar el razonamiento abstracto y crítico mediante el estudio de demostraciones lógicas y el método axiomático aplicado al álgebra lineal.
  • Conocimiento del mundo natural y las culturas y sociedades humanas, incluido el conocimiento disciplinario fundamental y la capacidad de emplear diferentes formas de conocer el mundo en sus múltiples dimensiones. Serán estudiantes
    • Desarrollar una comprensión del álgebra lineal, un área de conocimiento fundamental de las matemáticas.
    • Desarrollar una comprensión de las aplicaciones del álgebra lineal en matemáticas, ciencias naturales y sociales.
    • Desarrollar una apreciación de la interacción del álgebra lineal con otros campos.
    • Ser capaz de emplear los conceptos y métodos descritos en el programa de estudios.
    • Adquirir habilidades de comunicación y organización, incluida la comunicación escrita efectiva en sus asignaciones semanales.
    • Ser capaz de seguir argumentos lógicos complejos y desarrollar argumentos lógicos modestos.
    • comenzar un compromiso con el aprendizaje permanente, reconociendo que los campos de las matemáticas, el modelado matemático y las aplicaciones avanzan a un ritmo rápido
    • aprender a gestionar su propio aprendizaje y desarrollo, incluida la gestión del tiempo, las prioridades y el progreso
    • Reconocer temas recurrentes y principios generales que tienen amplias aplicaciones en matemáticas más allá de los dominios en los que se introducen.
    • comprender la interacción fundamental entre la teoría y la aplicación en álgebra lineal
    • Ser capaz de resolver problemas mediante álgebra lineal.
    • aplicar sus conocimientos para resolver problemas reales

    El texto y la discusión en clase presentarán los conceptos, métodos, aplicaciones y argumentos lógicos que los estudiantes practicarán y resolverán problemas en las tareas diarias, y serán evaluados en pruebas, exámenes parciales y finales.

    Ganamos & rsquot cubrimos todos los temas que se enumeran a continuación con la misma profundidad. Algunos temas son fundamentales y los cubrimos en detalle, otros indican direcciones adicionales de estudio en álgebra lineal y los tratamos como encuestas. Además de los temas que se enumeran a continuación, discutiremos algunas aplicaciones del álgebra lineal a otras partes de las matemáticas y la estadística y a las ciencias físicas y sociales.

      Matrices. Suma de matrices y multiplicación escalar. Multiplicación de matrices. Álgebra de matrices. Matriz inversa. Poderes de una matriz. Las matrices transpuestas y simétricas. Vectores: su suma, resta y multiplicación por escalares (es decir, números reales). Interpretación gráfica de estas operaciones vectoriales. Desarrollo de conocimientos geométricos. Productos internos y normas en Rnorte: productos internos de vectores (también llamados productos escalares), norma de un vector (también llamado longitud), vectores unitarios. Aplicaciones de productos interiores en Rnorte: líneas, planos en R 3, y líneas e hiperplanos en R norte .
      Matriz inversa. Matrices elementales. Introducción a determinantes, determinantes 2x2 y 3x3, áreas de triángulos y paralelogramos en el plano, volúmenes de paralelepípedos, Jacobianos Propiedades caracterizadoras y construcciones de determinantes, cofactores, matrices diagonales y triangulares. Más propiedades de determinantes, un algoritmo para evaluar determinantes, determinantes de productos, inversos y transposiciones, regla de Cramer & rsquos. Permutaciones y determinantes. Productos cruzados.
      El rango de una matriz. Rango y sistemas de ecuaciones lineales. Distancia.
      Campos. Espacios vectoriales, su definición axiomática. Propiedades de los espacios vectoriales que se derivan de los axiomas. Subespacios de espacios vectoriales. Tramo lineal.
      Independencia lineal. Combinaciones lineales y base. Envergadura e independencia. Bases. Coordenadas. Dimensión. Base y dimensión en R norte .
      Transformaciones lineales. Transformaciones lineales y matrices. Algunas transformaciones lineales del plano. R 2 Rango y espacio nulo. Coordenadas. Composición y categorías. Cambio de base y similitud.
      Autovalores, autovectores y autoespacios. Rotaciones y autovalores complejos. Matrices cuadradas diagonalizables.
      Potencias de matrices. Sistemas de ecuaciones en diferencias. Ecuaciones diferenciales lineales.
      Productos interiores. Norma y productos interiores en Cnorte y espacios interiores abstractos del producto. Desigualdad de Cauchy & rsquos. Ortogonalidad. Matrices ortogonales. Proceso de ortonormalización de Gram-Schmidt
      Diagonalización ortogonal de matrices simétricas. Formas cuadráticas.
      La suma directa de dos subespacios. Complementos ortogonales. Proyecciones. Caracterización de proyecciones y proyecciones ortogonales. Proyección ortogonal sobre el rango de una matriz. Minimizar la distancia a un subespacio. Ajuste de funciones a datos: aproximación por mínimos cuadrados.
      Números complejos. Curso corto de Dave & rsquos sobre números complejos. Espacios vectoriales complejos. Matrices complejas. Espacios de productos internos complejos. Conjugados hermitianos. Diagonalización unitaria y matrices normales. Descomposición espectral.
    • Transformaciones lineales. La definición de una transformación lineal L: V & rarr W desde el espacio de dominio V al espacio del codominio W. Cuándo V& nbsp = W, L también se llama operador lineal en V.
    • Ejemplos de L: R norte & rarr R metro . Operadores lineales en R 2 incluyendo rotaciones y reflejos, dilataciones y contracciones, transformaciones de cizallamiento, proyecciones, la identidad y transformaciones cero
    • El espacio nulo (kernel) y el rango (imagen) de una transformación, y sus dimensiones, la nulidad y rango de la transformación.
    • El teorema de la dimensión: el rand más la nulidad es igual a la dimensión del dominio
    • Representación matricial de una transformación lineal entre espacios vectoriales de dimensión finita con bases especificadas
    • Operaciones sobre transformaciones lineales V & rarr W. El espacio vectorial de todas las transformaciones lineales. V & rarr W. Composición de transformaciones lineales
    • Las operaciones de matriz correspondientes, en particular, la multiplicación de matrices corresponde a la composición de transformaciones lineales. Potencias de matrices cuadradas. Operaciones matriciales en Matlab
    • Invertibilidad e isomorfismos. Invarianza de dimensión bajo isomorfismo. Matrices inversas
    • El cambio de matriz de coordenadas entre dos bases diferentes de un espacio vectorial. Matrices similares.
    • Espacios duales.
    • [Una representación matricial para números complejos y otra para cuaterniones. Nota histórica sobre cuaterniones.]
    • Operaciones de fila elementales y matrices elementales.
    • El rango de una matriz (rango de fila) y de su dual (rango de columna).
    • Un algoritmo para invertir una matriz. Inversión de matrices en Matlab
    • Sistemas de ecuaciones lineales en términos de matrices. Matriz de coeficientes y matriz aumentada. Ecuaciones homogéneas y no homogéneas. Espacio de solución, consistencia e inconsistencia de sistemas.
    • Forma escalonada reducida, el método de eliminación (a veces llamado eliminación de Gauss o reducción de Gauss-Jordan)
    • 2x2 Determinantes del orden 2. Multilinealidad. Inversa de una matriz de 2x2. Área con signo de un paralelogramo plano, área de un triángulo.
    • norteXnorte determinantes. Expansión cofactor
    • Calcular determinantes en Matlab
    • Propiedades de los determinantes. Transposición, efecto de operaciones de fila elementales, multilinealidad. Determinantes de productos, inversos y transposiciones. Regla de Cramer & rsquos para resolver norte ecuaciones en norte incógnitas.
    • Volumen firmado de un paralelepípedo en 3 espacios
    • [Tema opcional: permutaciones e inversiones de permutaciones permutaciones pares e impares]
    • [Tema opcional: productos cruzados en R 3 ]
    • Un autoespacio de un operador lineal es un subespacio en el que el operador actúa como una multiplicación por una constante, llamada autovalor (también llamado valor característico). Los vectores en el espacio propio son todos los vectores propios para ese valor propio.
    • Interpretación geométrica de autovectores y autovalores. Puntos fijos y 1-eigenspace. Proyecciones y su espacio propio 0. Los reflejos tienen un & ndash1-eigenspace.
    • Pregunta de diagonalización.
    • Polinomio característico.
    • Autovalores complejos y rotaciones.
    • Un algoritmo para calcular autovalores y autovectores
    • Productos internos para espacios vectoriales reales y complejos (para espacios vectoriales reales, los productos internos también se denominan productos punto o productos escalares) y normas (también llamadas longitudes o valores absolutos). Espacios interiores de productos. Vectores en Matlab.
    • La desigualdad del triángulo y la desigualdad de Cauchy-Schwarz, otras propiedades de los productos internos
    • El ángulo entre dos vectores
    • Ortogonalidad de vectores ("ortogonal" y "normal" son otras palabras para "perpendicular")
    • Vectores unitarios y vectores unitarios estándar en R norte
    • Base ortonormal

    Apuntes de clase, cuestionarios, pruebas, asignaciones de tareas

    • Algunas asignaciones
      1. Ejercicios 1.1 a 1.7 página 53 y problemas 1.1 a 1.6 página 55.
      2. Problemas 1.8 a 1.14 página 57.
      3. Problemas 2.1 a 2.8 página 86.
      4. Ejercicios 3.1 a 3.8, 3.11, página 125. (Tenga en cuenta que estos son los ejercicios, no los problemas).
      5. Ejercicios 4.1 al 4.6, página 144.
      6. Problemas 5.1 a 5.7, página 170.
      7. Varios problemas de los capítulos 6 y 7. (diferentes asignaciones en las diferentes secciones de la clase)

      : estructuras de teoremas y pruebas, pruebas sintéticas y analíticas, símbolos lógicos y pruebas bien escritas
    • Un poco sobre conjuntos


    ¿Por qué hacerlo de esta manera?

    Esta puede parecer una forma extraña y complicada de multiplicar, ¡pero es necesaria!

    Puedo darles un ejemplo de la vida real para ilustrar por qué multiplicamos matrices de esta manera.

    Ejemplo: la tienda local vende 3 tipos de tartas.

    • Costo de las tartas de manzana $3 cada
    • Los pasteles de cereza cuestan $4 cada
    • Costo de las tartas de arándanos $2 cada

    Y así es como vendieron en 4 días:

    Ahora piensa en esto. la valor de las ventas para el lunes se calcula de esta manera:

    Entonces, es, de hecho, el "producto escalar" de los precios y cuántos se vendieron:

    ($3, $4, $2) • (13, 8, 6) = $3×13 + $4×8 + $2×6
    = $83

    Nosotros partido el precio a cuántos se vendieron, multiplicar cada uno, entonces suma el resultado.

    • Las rebajas del lunes fueron: tartas de manzana: $3×13=$39, Tarta de cerezas: $4×8=$32y tartas de arándanos: $2×6=$12. Juntos eso es $ 39 + $ 32 + $ 12 = $83
    • Y para el martes: $3×9 +$4×7 + $2×4 =$63
    • Y para el miércoles: $3×7 +$4×4 + $2×0 =$37
    • Y para el jueves: $3×15 +$4×6 + $2×3 =$75

    Por eso es importante hacer coincidir cada precio con cada cantidad.

    Ahora sabe por qué utilizamos el "producto escalar".

    Y aquí está el resultado completo en forma de matriz:

    Ellos vendieron $83 por valor de pasteles el lunes, $63 el martes, etc.

    (Puede poner esos valores en la Calculadora matricial para ver si funcionan).


    Subsección 5.6.2 Matrices estocásticas y estado estacionario

    En esta subsección, discutimos las ecuaciones en diferencias que representan probabilidades, como el ejemplo de Red Box. Tales sistemas se llaman Cadenas de Markov. El resultado más importante de esta sección es el teorema de Perron-Frobenius, que describe el comportamiento a largo plazo de una cadena de Markov.

    Definición

    es estocástico si todas sus entradas son no negativas, y las entradas de cada columna suman

    Una matriz es positivo si todas sus entradas son números positivos.

    Una matriz estocástica positiva es una matriz estocástica cuyas entradas son todas números positivos. En particular, ninguna entrada es igual a cero. Por ejemplo, la primera matriz a continuación es una matriz estocástica positiva y la segunda no es:

    Observación

    De manera más general, un regular La matriz estocástica es una matriz estocástica.

    El teorema de Perron-Frobenius a continuación también se aplica a las matrices estocásticas regulares.

    Ejemplo

    Continuando con el ejemplo de Red Box, la matriz

    es una matriz estocástica positiva. El hecho de que las columnas sumen

    dice que todas las películas alquiladas en un quiosco en particular deben devolverse a algunos otro quiosco (recuerde que cada cliente devuelve su película al día siguiente). Por ejemplo, la primera columna dice:

    De las películas alquiladas en quiosco

    30% será devuelto a quiosco1 30% será devuelto a quiosco2 40% será devuelto a quiosco3.

    ya que todas las películas se devuelven a uno de los tres quioscos.

    representa el cambio de estado de un día para otro:

    Esto dice que el total El número de copias de Prognosis Negative en los tres quioscos no cambia de un día a otro, como esperamos.

    El hecho de que las entradas de los vectores

    suma al mismo número es una consecuencia del hecho de que las columnas de una matriz estocástica suman a

    ser una matriz estocástica, sea

    Entonces la suma de las entradas de

    es igual a la suma de las entradas de

    Calcular el comportamiento a largo plazo de una ecuación en diferencias resulta ser un problema de valores propios. Los valores propios de las matrices estocásticas tienen propiedades muy especiales.

    ser una matriz estocástica. Luego:

    es un valor propio (real o complejo) de

    Prueba

    es estocástico, entonces el filas de

    Pero multiplicando una matriz por el vector

    tienen el mismo polinomio característico:

    por lo que también es un valor propio de

    La entrada de esta ecuación vectorial es

    con el mayor valor absoluto, por lo que

    donde la última igualdad se mantiene porque

    De hecho, por un positivo matriz estocástica

    es un valor propio (real o complejo) de

    -eigenspace de una matriz estocástica es muy importante.

    Definición

    A estado estable de una matriz estocástica

    tal que las entradas sean positivo y suma a

    El teorema de Perron-Frobenius describe el comportamiento a largo plazo de una ecuación en diferencias representada por una matriz estocástica. Su prueba está más allá del alcance de este texto.

    Teorema de Perron-Frobenius

    ser una matriz estocástica positiva. Luego

    admite un vector de estado estable único

    con entradas que suman algún número

    Traducción: El teorema de Perron-Frobenius hace las siguientes afirmaciones:

    -eigenspace sobre multiplicación repetida por

    Uno debería pensar en un vector de estado estacionario

    como un vector de porcentajes. Por ejemplo, si las películas se distribuyen hoy según estos porcentajes, mañana tendrán la misma distribución, ya que

    Y no importa la distribución inicial de películas, la distribución a largo plazo siempre será el vector de estado estable.

    es el numero total de las cosas en el sistema que se está modelando. El número total no cambia, por lo que el estado a largo plazo del sistema debe acercarse

    porque está contenido en el

    -eigenspace, y las entradas de

    Receta 1: Calcule el vector de estado estable

    ser una matriz estocástica positiva. A continuación se explica cómo calcular el vector de estado estable de

    por la suma de las entradas de

    La receta anterior es adecuada para cálculos a mano, pero no aprovecha el hecho de que

    es una matriz estocástica. En la práctica, generalmente es más rápido calcular un vector de estado estable por computadora de la siguiente manera:

    Receta 2: Aproxime el vector de estado estable por computadora

    ser una matriz estocástica positiva. A continuación se explica cómo aproximar el vector de estado estable de

    Ejemplo (A
    Ejemplo

    Continuando con el ejemplo del cuadro rojo, podemos ilustrar explícitamente el teorema de Perron-Frobenius. La matriz

    tiene polinomio característico

    es estrictamente mayor en valor absoluto que los otros valores propios, y que tiene multiplicidad algebraica (por lo tanto, geométrica)

    Calculamos vectores propios para los valores propios

    necesariamente tiene entradas positivas el vector de estado estable es

    Iterando la multiplicación por

    que es un vector propio con valor propio

    , como lo garantiza el teorema de Perron-Frobenius.

    ¿Qué dicen los cálculos anteriores sobre la cantidad de copias de Prognosis Negative en los quioscos de Atlanta Red Box? Suponga que los quioscos comienzan con 100 copias de la película, con

    ser el vector que describe este estado. Entonces habra

    películas en los quioscos al día siguiente,

    el día siguiente, y así sucesivamente. Dejamos

    (Por supuesto que no tiene sentido tener una fracción de películas, los decimales se incluyen aquí para ilustrar la convergencia). El vector de estado estable dice que eventualmente, las películas se distribuirán en los quioscos de acuerdo con los porcentajes.

    38.888888% 33.333333% 27.777778%

    que concuerda con la tabla anterior. Además, esta distribución es independiente de la distribución inicial de películas en los quioscos.

    Ahora pasamos a visualizar la dinámica de (es decir, multiplicación repetida por) la matriz

    Esta matriz es diagonalizable tenemos

    -coordinado sin cambios, escala el

    Multiplicación repetida por

    -coordina muy pequeño, por lo que "absorbe todos los vectores en el

    pero con respecto al sistema de coordenadas definido por las columnas

    "Absorbe todos los vectores en el

    -eigenspace ”, sin cambiar la suma de las entradas de los vectores.

    Haga clic en "multiplicar" para multiplicar los puntos de color por

    a la derecha. Tenga en cuenta que en ambos lados, todos los vectores son "absorbidos por la

    -eigenspace ”(la línea verde). (Hemos escalado

    de modo que los vectores tienen aproximadamente el mismo tamaño a la derecha y a la izquierda. El "salto" que ocurre cuando presionas "multiplicar" es una negación de la

    -eigenspace, que no está animado.)

    La imagen de una matriz estocástica positiva es siempre la misma, sea diagonalizable o no: todos los vectores son "absorbidos por

    -eigenspace, " que es una línea, sin cambiar la suma de las entradas de los vectores. Este es el contenido geométrico del teorema de Perron-Frobenius.


    Calculadora de matrices

    Una matriz, en un contexto matemático, es una matriz rectangular de números, símbolos o expresiones que se organizan en filas y columnas. Las matrices se utilizan a menudo en campos científicos como la física, los gráficos por computadora, la teoría de la probabilidad, la estadística, el cálculo, el análisis numérico y más.

    Las dimensiones de una matriz, A, normalmente se denotan como m & # 215 n. Esto significa que A posee metro filas y norte columnas. Cuando se hace referencia a un valor específico en una matriz, llamado elemento, a menudo se usa una variable con dos subíndices para denotar cada elemento en función de su posición en la matriz. Por ejemplo, dado ayo, j, dónde i = 1 y j = 3, a1,3 es el valor del elemento en la primera fila y la tercera columna de la matriz dada.

    Las operaciones con matrices, como la suma, la multiplicación, la resta, etc., son similares a lo que la mayoría de la gente está acostumbrada a ver en aritmética básica y álgebra, pero difieren en algunos aspectos y están sujetas a ciertas restricciones. A continuación se muestran descripciones de las operaciones matriciales que puede realizar esta calculadora.

    Adición de matriz

    La suma de matrices solo se puede realizar en matrices del mismo tamaño. Esto significa que solo puede agregar matrices si ambas matrices son m & # 215 n. Por ejemplo, puede agregar dos o más 3 × 3, 1 × 2, o 5 × 4 matrices. No puede agregar un 2 × 3 y un 3 × 2 matriz, una 4 × 4 y un 3 × 3, etc. El número de filas y columnas de todas las matrices que se agregan debe coincidir exactamente.

    Si las matrices son del mismo tamaño, la suma de matrices se realiza agregando los elementos correspondientes en las matrices. Por ejemplo, dadas dos matrices, A y B, con elementos ayo, j, y Byo, j, las matrices se agregan agregando cada elemento, luego colocando el resultado en una nueva matriz, C, en la posición correspondiente en la matriz:

    En las matrices anteriores, a1,1 = 1 a1,2 = 2 B1,1 = 5 B1,2 = 6 etc. Agregamos los elementos correspondientes para obtener Cyo, j. Sumando los valores en las filas y columnas correspondientes:

    a1,1 + b1,1 = 1 + 5 = 6 = c1,1
    a1,2 + b1,2 = 2 + 6 = 8 = c1,2
    a2,1 + b2,1 = 3 + 7 = 10 = c2,1
    a2,2 + b2,2 = 4 + 8 = 12 = c2,2

    Por lo tanto, matrix C es:

    Resta de matrices

    La resta de matrices se realiza de la misma manera que la suma de matrices, descrita anteriormente, con la excepción de que los valores se restan en lugar de sumarlos. Si es necesario, consulte la información y los ejemplos anteriores para obtener una descripción de la notación utilizada en el ejemplo siguiente. Al igual que la suma de matrices, las matrices que se restan deben tener el mismo tamaño. Si las matrices son del mismo tamaño, entonces la resta de matrices se realiza restando los elementos en las filas y columnas correspondientes:

    Por lo tanto, matrix C es:

    Multiplicación de matrices

    Multiplicación escalar:

    Las matrices se pueden multiplicar por un valor escalar multiplicando cada elemento de la matriz por el escalar. Por ejemplo, dada una matriz A y un escalar C:

    El producto de C y A es:

    Multiplicación matriz-matriz:

    Multiplicar dos (o más) matrices es más complicado que multiplicar por un escalar. Para multiplicar dos matrices, el número de columnas en la primera matriz debe coincidir con el número de filas en la segunda matriz. Por ejemplo, puede multiplicar un 2 × 3 matriz por una 3 × 4 matriz, pero no una 2 × 3 matriz por una 4 × 3.

    Tenga en cuenta que al multiplicar matrices, A y # 215 B no es necesariamente igual B y # 215 A. De hecho, solo porque A se puede multiplicar por B no significa eso B se puede multiplicar por A.

    Si las matrices tienen los tamaños correctos y se pueden multiplicar, las matrices se multiplican realizando lo que se conoce como producto escalar. El producto escalar implica multiplicar los elementos correspondientes en la fila de la primera matriz, por el de las columnas de la segunda matriz, y sumar el resultado, lo que da como resultado un valor único. El producto escalar solo se puede realizar en secuencias de igual longitud. Es por eso que el número de columnas en la primera matriz debe coincidir con el número de filas de la segunda.

    El producto escalar se convierte en el valor de la fila y columna correspondientes de la nueva matriz, C. Por ejemplo, de la sección anterior de matrices que se pueden multiplicar, la fila azul en A se multiplica por la columna azul en B para determinar el valor en la primera columna de la primera fila de la matriz C. Esto se conoce como el producto escalar de la fila 1 de A y la columna 1 de B:

    El producto escalar se realiza para cada fila de A y cada columna de B hasta que todas las combinaciones de los dos estén completas para encontrar el valor de los elementos correspondientes en la matriz C. Por ejemplo, cuando realiza el producto escalar de la fila 1 de A y la columna 1 de B, el resultado será C1,1 de matriz C. El producto escalar de la fila 1 de A y la columna 2 de B estarán C1,2 de matriz C, y así sucesivamente, como se muestra en el siguiente ejemplo:

    Al multiplicar dos matrices, la matriz resultante tendrá el mismo número de filas que la primera matriz, en este caso A, y el mismo número de columnas que la segunda matriz, B. Desde A es 2 × 3 y B es 3 × 4, C será un 2 × 4 matriz. The colors here can help determine first, whether two matrices can be multiplied, and second, the dimensions of the resulting matrix. Next, we can determine the element values of C by performing the dot products of each row and column, as shown below:

    Below, the calculation of the dot product for each row and column of C is shown:

    C1,1 = 1࡫ + 2࡭ + 1ࡧ = 20
    C1,2 = 1࡬ + 2࡮ + 1ࡧ = 23
    C1,3 = 1ࡧ + 2ࡧ + 1ࡧ = 4
    C1,4 = 1ࡧ + 2ࡧ + 1ࡧ = 4
    C2,1 = 3࡫ + 4࡭ + 1ࡧ = 44
    C2,2 = 3࡬ + 4࡮ + 1ࡧ = 51
    C2,3 = 3ࡧ + 4ࡧ + 1ࡧ = 8
    C2,4 = 3ࡧ + 4ࡧ + 1ࡧ = 8

    Power of a matrix

    For the intents of this calculator, "power of a matrix" means to raise a given matrix to a given power. For example, when using the calculator, "Power of 2" for a given matrix, A, means A 2. Exponents for matrices function in the same way as they normally do in math, except that matrix multiplication rules also apply, so only square matrices (matrices with an equal number of rows and columns) can be raised to a power. This is because a non-square matrix, A, cannot be multiplied by itself. A × A in this case is not possible to compute. Refer to the matrix multiplication section, if necessary, for a refresher on how to multiply matrices. Given:

    A raised to the power of 2 is:

    As with exponents in other mathematical contexts, A 3, would equal A × A × A, A 4 would equal A × A × A × A, and so on.

    Transpose of a matrix

    The transpose of a matrix, typically indicated with a "T" as an exponent, is an operation that flips a matrix over its diagonal. This results in switching the row and column indices of a matrix, meaning that aij in matrix A, becomes aji en A. If necessary, refer above for description of the notation used.

    Un m × n matrix, transposed, would therefore become an n × m matrix, as shown in the examples below:

    Determinant of a matrix

    The determinant of a matrix is a value that can be computed from the elements of a square matrix. It is used in linear algebra, calculus, and other mathematical contexts. For example, the determinant can be used to compute the inverse of a matrix or to solve a system of linear equations.

    There are a number of methods and formulas for calculating the determinant of a matrix. The Leibniz formula and the Laplace formula are two commonly used formulas.

    Determinant of a 2 × 2 matrix:

    The determinant of a 2 × 2 matrix can be calculated using the Leibniz formula, which involves some basic arithmetic. Given matrix A:

    The determinant of A using the Leibniz formula is:

    Note that taking the determinant is typically indicated with "| |" surrounding the given matrix. Given:

    Determinant of a 3 × 3 matrix:

    One way to calculate the determinant of a 3 × 3 matrix is through the use of the Laplace formula. Both the Laplace formula and the Leibniz formula can be represented mathematically, but involve the use of notations and concepts that won't be discussed here. Below is an example of how to use the Laplace formula to compute the determinant of a 3 × 3 matrix:

    From this point, we can use the Leibniz formula for a 2 × 2 matrix to calculate the determinant of the 2 × 2 matrices, and since scalar multiplication of a matrix just involves multiplying all values of the matrix by the scalar, we can multiply the determinant of the 2 × 2 by the scalar as follows:

    This can further be simplified to:

    |A| = aei + bfg + cdh - ceg - bdi - afh

    This is the Leibniz formula for a 3 × 3 matrix.

    Determinant of a 4 × 4 matrix and higher:

    The determinant of a 4 × 4 matrix and higher can be computed in much the same way as that of a 3 × 3, using the Laplace formula or the Leibniz formula. As with the example above with 3 × 3 matrices, you may notice a pattern that essentially allows you to "reduce" the given matrix into a scalar multiplied by the determinant of a matrix of reduced dimensions, i.e. a 4 × 4 being reduced to a series of scalars multiplied by 3 × 3 matrices, where each subsequent pair of scalar × reduced matrix has alternating positive and negative signs (i.e. they are added or subtracted).

    The process involves cycling through each element in the first row of the matrix. Eventually, we will end up with an expression in which each element in the first row will be multiplied by a lower-dimension (than the original) matrix. The elements of the lower-dimension matrix is determined by blocking out the row and column that the chosen scalar are a part of, and having the remaining elements comprise the lower dimension matrix. Refer to the example below for clarification.

    Here, we first choose element a. The elements in blue are the scalar, a, and the elements that will be part of the 3 × 3 matrix we need to find the determinant of:

    Next, we choose element B:

    Continuing in the same manner for elements C y D, and alternating the sign (+ - + - . ) of each term:

    We continue the process as we would a 3 × 3 matrix (shown above), until we have reduced the 4 × 4 matrix to a scalar multiplied by a 2 × 2 matrix, which we can calculate the determinant of using Leibniz's formula. As can be seen, this gets tedious very quickly, but is a method that can be used for n × n matrices once you have an understanding of the pattern. There are other ways to compute the determinant of a matrix which can be more efficient, but require an understanding of other mathematical concepts and notations.

    Inverse of a matrix

    The inverse of a matrix A is denoted as A -1, where A -1 is the inverse of A if the following is true:

    A×A -1 = A -1 ×A = I, where I is the identity matrix

    The identity matrix is a square matrix with "1" across its diagonal, and "0" everywhere else. The identity matrix is the matrix equivalent of the number "1." For example, the number 1 multiplied by any number norte es igual a norte. The same is true of an identity matrix multiplied by a matrix of the same size: A × I = A. Note that an identity matrix can have any square dimensions. For example, all of the matrices below are identity matrices. From left to right respectively, the matrices below are a 2 × 2, 3 × 3, y 4 × 4 identity matrix:

    La n × n identity matrix is thus:

    Inverse of a 2 × 2 matrix:

    To invert a 2 × 2 matrix, the following equation can be used:

    If you were to test that this is in fact the inverse of A you would find that both:

    are equal to the identity matrix:

    Inverse of a 3 × 3 matrix:

    The inverse of a 3 × 3 matrix is more tedious to compute. An equation for doing so is provided below, but will not be computed. Given:

    A=ei-fh B=-(di-fg) C=dh-eg D=-(bi-ch) mi=ai-cg F=-(ah-bg) GRAMO=bf-ce H=-(af-cd) I=ae-bd

    4 × 4 and larger get increasingly more complicated, and there are other methods for computing them.


    STAT 542: MULTIVARIATE STATISTICAL ANALYSIS: CLASSICAL THEORY AND RECENT DEVELOPMENTS

    Prereq: STAT 581-582 plus linear algebra and matrix theory. In particular, familiarity with hypothesis testing, decision theory, and invariance. BIOSTAT/STAT 533 (univariate linear models) is also helpful.

    The first 3/4 of the course will concentrate on "classical" multivariate analysis, i.e, distribution theory and statistical inference based on the multivariate normal distribution. The last 1/4 will cover special topics of interest to the instructor and/or requested by the class. There will be several homework assignments. Time permitting, each registered student will report on a topic of interest to her/him.

    Topics include (as time permits):

    0. Brief review of matrix algebra and the multivariate normal distribution: pdf, marginal and conditional distributions, covariance matrix, correlations and partial correlations.

    1. The Wishart distribution: definition and properties, distribution of the sample covariance matrix, marginal and conditional distributions.

    2. Estimation and testing: likelihood inference and invariance. Hotelling's T^2 test, multivariate linear models and MANOVA, testing independence, Bartlett's tests for equality of covariance matrices. The James-Stein estimator for the mean vector, the Stein estimator for the covariance matrix.

    3. Distributions derived from the Wishart distribution and their role in hypothesis testing: eigenvalues, principle components, canonical correlations. Jacobians of multivariate distributions. Stein’s integral representation of the density of a maximal invariant statistic.

    4. Group symmetry in estimation and testing (the Copenhagen theory.)

    5. Multivariate probability inequalities and their applications to the power of multivariate tests and multiparameter confidence intervals.

    6. Lattice conditional independence models and their applications to missing data problems and "seemingly unrelated regression" models.

    Anderson, T. W. (2003). An Introduction to Multivariate Statistical Analysis (3rd ed). Wiley, New York.

    Andersson, S. A. (1999). An Introduction to Multivariate Statistical Analysis, Lecture Notes, Indiana University.

    Bilodeau, M. and Brenner, D. (1999). Theory of Multivariate Statistics. Springer, New York.

    Eaton, M. L. (1983). Multivariate Statistics. Wiley, New York.

    Eaton, M. L. (1989). Group Invariance Applications in Statistics. IMS-ASA.

    Lehmann, E. L. and Romano, J. P. (2005). Testing Statistical Hypotheses, 3nd ed. Wiley, New York.

    Muirhead, R. J. (1982). Aspects of Multivariate Statistical Theory. Wiley, New York.

    Seber, G. A. F. (1984). Multivariate Observations. Wiley, New York.

    Anderson, T. W. and Perlman, M. D. (1993). Parameter consistency of invariant tests for MANOVA and related multivariate hypotheses. Statistics and Probability: A Raghu Raj Bahadur Festschrift (J.K. Ghosh, S.K. Mitra, K.R. Parthasarathy, B.L.S. Prakasa Rao, eds.), 37-62. Wiley Eastern Ltd.

    Andersson, S. A. (1990). The lattice structure of orthogonal linear models and orthogonal variance component models. Scand. J. Statist. 17 287-319.

    Andersson, S. A., Brons, H. K., and Tolver Jensen, S. (1983). Distribution of eigenvalues in multivariate statistical analysis. Ana. Estadístico. 11 392-415.

    Andersson, S. A. and Klein, T. (2010) On Riesz and Wishart distributions associated with decomposable undirected graphs. J. Multivariate Analysis 101 789-810.

    Andersson, S. A. and Madsen, J. (1998). Symmetry and lattice conditional independence in a multivariate normal distribution. Ana. Estadístico. 26 525-572.

    Andersson, S. A. and Perlman, M. D. (1991). Lattice-ordered conditional independence models for missing data. Statistics and Probability Letters 12 465-486.

    Andersson, S. A. and Perlman, M. D. (1993). Lattice models for conditional independence in a multivariate normal distribution. Ana. Estadístico. 21 1318-1358.

    Andersson, S. A. and Perlman, M. D. (1994). Normal linear models with lattice conditional independence restrictions. En Multivariate Analysis and its Applications (T.W. Anderson, K.T. Fang, I. Olkin,eds.), IMS Lecture Notes-Monograph Series Vol. 24 97-110.

    Andersson, S. A. and Perlman, M. D. (1998). Normal linear regression models with recursive graphical Markov structure. J. Multivariate Analysis 66 133-187.

    Andersson, S. A. and Wojnar, G. G. (2004). Wishart distributions on homogeneous cones. J. Theoret. Prob. 17 781-818.

    Daniels, M. J. and Kass, R. E. (2001). Shrinkage estimators for covariance matrices. Biometrics 57 1173-1184.

    Das Gupta, S., Anderson, T. W., and Mudholkar, G. S. (1964). Monotonicity of the power functions of some tests of the multivariate linear hpothesis. Ana. Matemáticas. Estadístico. 35 200-205.

    Drton, M., Andersson, S. A., and Perlman, M. D. (2005). Lattice conditional independence models for seemingly unrelated regression models with missing data. J. Multivariate Analysis 97 385-411.

    Joe, H. (2006). Generating random correlation matrices based on partial correlations. J. Multivariate Analysis 97 2177-2189.

    Also see http://ms.mcmaster.ca/canty/seminars/Joe_vinecorr_print.pdf

    Kiefer, J. and Schwartz, R. (1965). Admissible Bayes character of T2-, R2-, and other fully invariant tests for classical multivariate normal problems. Ana. Matemáticas. Estadístico. 36 747-770.

    Ledet-Jensen, J. (1991). A large deviation-type approximation for the “Box class” of likelihood ratio criteria. J. Amer. Estadístico. Assoc. 86 437-440.

    Madsen, J. (2000). Invariant normal models with recursive graphical Markov structure. Ana. Estadístico. 28

    Marden, J. I. and Perlman, M. D. (1980). Invariant tests for means with covariates. Ana. Estadístico. 8 825-63.

    Okamoto, M. (1973). Distinctiveness of the eigenvalues of a quadratic form in a multivariate sample. Ana. Estadístico. 1 763-754.

    Perlman, M. D. (1980a). Unbiasedness of the likelihood ratio tests for equality of several covariance matrices and equality of several multivariate normal populations. Ana. Estadístico. 8 247-263.

    Perlman, M. D. (1980b). Unbiasedness of multivariate tests: recent results. Proceedings of the Fifth International Symposium on Multivariate Analysis (P.R. Krishnaiah, ed.), 413-432. [Also see Anderson (2003) Section 8.10.2.]

    Perlman, M. D. and Olkin, I. (1980). Unbiasedness of invariant tests for MANOVA and other multivariate problems. Annals of Statistics 8 1326-1341.

    Perlman, M. D. (1987). Group symmetry covariance models. (Discussion of "A Review of Multivariate Analysis" by Mark Schervish.) Statistical Science 2, 421-425.

    Perlman, M. D. (1990). T.W. Anderson's theorem on the integral of a symmetric unimodal function over a symmetric convex set and its applications in probability and statistics. The Collected Papers of T.W. Anderson: 1943-1985 (G. Styan, ed.), Vol. 2 1627-1641. J. Wiley & Sons, New York.

    Schwartz, R. (1967). Admissible tests in multivariate analysis of variance. Ana. Estadístico. 38, 698-710. [Also see Anderson (2003) Section 8.10.1.]

    Stein, C. (1956). The admissibility of Hotelling’s T2-prueba. Ana. Matemáticas. Estadístico. 27 616-623.

    Tolver Jensen, S. (1988). Covariance hypotheses which are linear in both the covariance and the inverse covariance. Ana. Statist. 16 302-322.


    Summarize the whole data set. In this example, summarize_all() generates a long-term mean of the data.

    Filter out just the January values, and get a long-term mean of those:

    Summarize the data by groups, in this case by months. First rearrange the data, and then summarize:

    Note that grouped data set looks almost exactly like the ungrouped one, except when listed, it includes the mention of the grouping variable (i.e., Groups: mon [12] ).

    Calculate annual averages of each variable, using the aggregate() function from the stats package.


    11.1: A- Jacobians, Inverses of Matrices, and Eigenvalues - Mathematics

    Course Coordinator: Dr Adrian Koerber

    Course Timetable

    The full timetable of all activities for this course can be accessed from Course Planner.

    Course Learning Outcomes
    1. Demonstrate understanding of basic concepts in linear algebra, relating to matrices, vector spaces and eigenvectors.
    2. Demonstrate understanding of basic concepts in calculus, relating to functions, differentiation and integration.
    3. Employ methods related to these concepts in a variety of applications.
    4. Apply logical thinking to problem-solving in context.
    5. Use appropriate technology to aid problem-solving.
    6. Demonstrate skills in writing mathematics.
    University Graduate Attributes

    This course will provide students with an opportunity to develop the Graduate Attribute(s) specified below:

    University Graduate Attribute Course Learning Outcome(s)
    Knowledge and understanding of the content and techniques of a chosen discipline at advanced levels that are internationally recognised. todas
    The ability to locate, analyse, evaluate and synthesise information from a wide variety of sources in a planned and timely manner. 3,4
    An ability to apply effective, creative and innovative solutions, both independently and cooperatively, to current and future problems. 1,2,3,4,5
    A proficiency in the appropriate use of contemporary technologies. 5
    A commitment to continuous learning and the capacity to maintain intellectual curiosity throughout life. todas

    Required Resources
    Recommended Resources
    1. Lay: Linear Algebra and its Applications 4th ed. (Addison Wesley Longman)
    2. Stewart: Cálculo 7th ed. (international ed.) (Brooks/Cole)
    Online Learning

    This course also makes use of online assessment software for mathematics called Maple TA, which we use to provide students with instantaneous formative feedback.

    Learning & Teaching Modes
    Workload

    The information below is provided as a guide to assist students in engaging appropriately with the course requirements.


    Actividad Quantity Workload hours
    Lectures 48 72
    Tutorials 11 22
    Asignaciones 11 55
    Mid Semester Test 1 6
    Total 156
    Learning Activities Summary

    In Mathematics IA the two topics of algebra and calculus detailed below are taught in parallel, with two lectures a week on each. The tutorials are a combination of algebra and calculus topics, pertaining to the previous week's lectures.

    Lecture Outline


    Algebra

    • Matrices and Linear Equations (8 lectures)
      • Algebraic properties of matrices.
      • Systems of linear equations, coefficient and augmented matrices. Row operations.
      • Gauss-Jordan reduction. Solution set.
      • Linear combnations of vectors. Inverse matrix, elementary matrices, application to linear systems.
      • Definition and properties. Computation. Adjoint.
      • Convex sets, systems of linear inequalities.
      • Optimization of a linear functional on a convex set: geometric and algebraic methods.
      • Applications.
      • Definición. Linear independence, subspaces, basis.
      • Definitions and calculation: characteristic equation, trace, determinant, multiplicity.
      • Similar matrices, diagonalization. Applications.
      • Functions (6 lectures)
        • Real and irrational numbers. Decimal expansions, intervals.
        • Domain, range, graph of a function. Polynomial, rational, modulus, step, trig functions, odd and even functions.
        • Combining functions, 1-1 and monotonic functions, inverse functions including inverse trig functions.
        • Areas, summation notation. Upper and lower sums, area under a curve.
        • Properties of the definite integral. Fundamental Theorem of Calculus.
        • Revision of differentiation, derivatives of inverse functions.
        • Logarithm as area under a curve. Properties.
        • Exponential function as inverse of logarithm, properties. Other exponential and log functions. Hyperbolic functions.
        • Substitution, integration by parts, partial fractions.
        • Trig integrals, reduction formulae. Use of Matlab in evaluation of integrals.
        • Riemann sums, trapezoidal and Simpson's rules.

        Tutorial 1: Matrices and linear equations. Real numbers, domain and range of functions.

        Tutorial 2: Gauss-Jordan elimination. Linear combinations of vectors. Composition of functions, 1-1 functions.
        Tutorial 3: Systems of equations. Inverse functions. Exponential functions.
        Tutorial 4: Inverse matrices. Summation, upper and lower sums.
        Tutorial 5: Determinants. Definite integrals, average value.
        Tutorial 6: Convex sets, optimization. Antiderivatives, Fundamental Theorem of Calculus.
        Tutorial 7: Optimization. Linear dependence and independence. Differentiation of inverse functions.
        Tutorial 8: Linear dependence, span, subspace. Log, exponential and hyperbolic functions.
        Tutorial 9: Basis and dimension. Integration.
        Tutorial 10: Eigenvalues and eigenvectors. Integration by parts, reduction formulae.
        Tutorial 11: Eigenvalues and eigenvectors. Tirigonometric integrals.
        Tutorial 12: Diagonalization, Markov processes. Numerical integration.
        (Note: This tutorial is not an actual class, but is a set of typical problems with solutions provided.)

        Note: Precise tutorial content may vary due to the vagaries of public holidays.


        Ver el vídeo: Ejemplo Matriz Jacobiana (Enero 2022).