¿Qué es una matriz?
Análisis:
Matriz
Una matriz es una matriz cuadrada compuesta por coeficientes y constantes de ecuaciones. Es conveniente e intuitivo utilizarlo para resolver ecuaciones lineales. Por ejemplo, para la ecuación:
a 1x+b 1y+c 1z = d 1
a2x+b2y+c2z=d2
a3x+b3y+ c3z= d3
En términos generales, podemos formar dos matrices:
a 1b 1c 1a 1b 1c 1d 1
a2b2c2a2b2c2d2
a3b3c3a3b3c3d3
Debido a que estos números están ordenados juntos regularmente y tienen forma de rectángulo, los matemáticos lo llaman matriz. Transformando la matriz se puede obtener la solución de la ecuación.
El concepto específico de matriz fue propuesto por primera vez por el matemático británico Kelly en el siglo XIX y formó la teoría sistemática del álgebra matricial.
Sin embargo, si nos remontamos a sus orígenes, las matrices aparecieron por primera vez en los Nueve Capítulos de Aritmética de China. El Capítulo 9 Ecuaciones aritméticas propone que los coeficientes y constantes de las ecuaciones lineales se ordenen en un rectángulo. Entonces la solución a esta ecuación se puede encontrar moviendo lugares. En Europa, este método se utilizó para resolver ecuaciones lineales más de 2.000 años después que en China.
Matemáticamente, una matriz m×n es una matriz rectangular con m filas y n columnas. Una matriz está formada por números, o más generalmente, por elementos en anillos.
Las matrices son comunes en álgebra lineal, programación lineal, análisis estadístico y combinatoria. Consulte la teoría de matrices.
Historia
El estudio de las matrices tiene una larga historia, y los cuadrados latinos y los cuadrados mágicos se han estudiado en la prehistoria.
Matrix también tiene una larga trayectoria como herramienta para la resolución de ecuaciones lineales. En 1693, Gottfried Wilhelm Leibniz, uno de los descubridores del cálculo, estableció la teoría del determinante. En 1750, Gabriel Clem formuló más tarde la Ley de Clem. En el siglo XIX, Gauss y William Jordan establecieron el método de eliminación de Gauss-Jordan.
James Joseph Sylvester acuñó por primera vez el término matriz en 1848. Entre los matemáticos famosos que han estudiado la teoría de matrices se encuentran Gloria, William Rowan Hamilton, Glassmann, Frobenius y von Neumann.
Definiciones y símbolos relacionados
La siguiente es una matriz de 4 × 3:
La I-ésima fila y J-ésima columna de la matriz A, o los bits I y J , generalmente registrado como A=7.
En lenguaje C, también se expresa como A[i][j]. (Vale la pena señalar que, a diferencia de los algoritmos matriciales generales, en C, las "filas" y las "columnas" se cuentan comenzando desde 0.)
Además, A = (aij), es decir, a [I, j] = aiji es común en escritos matemáticos para todo I y j.
Matrices generales construidas sobre anillos
Dado un anillo R, M(m, n, R) es el * * * de todas las matrices m× n con elementos dispuestos en R m= n, generalmente registrado como M(n, R). Estas matrices se pueden sumar y multiplicar (ver más abajo), por lo que M (n, R) en sí mismo es un anillo, que es isomorfo al anillo automórfico de R izquierdo módulo Rn.
Si R es permutable, entonces M(n, R) es un R-álgebra con identidad. El determinante se puede definir mediante la fórmula de Leibniz: una matriz es invertible si y sólo si su determinante es invertible dentro de r.
En * * *, a menos que se especifique lo contrario, las matrices son en su mayoría matrices reales o matrices virtuales.
Matriz bloqueada
Matriz bloqueada se refiere a una matriz que divide una matriz grande en "matrices". Por ejemplo, la siguiente matriz se puede dividir en cuatro matrices de 2 × 2.
Este método se puede utilizar para simplificar operaciones, pruebas matemáticas y determinadas aplicaciones informáticas, como el diseño de chips VLSI.
Matriz simétrica
Una matriz simétrica es simétrica respecto a su diagonal principal (de arriba a la izquierda a abajo a la derecha), es decir, ai,j = aj,I.
La matriz de Hermite (o matriz auto-yugada) es simétrica respecto a su diagonal principal en forma de yugo complejo, es decir, ai,j = a*j,I.
Todos los elementos de la matriz de Teplic son opuestos en cualquier diagonal, es decir, ai, j=ai+1, j+1.
Todas las columnas de una matriz aleatoria son vectores de probabilidad, utilizados en las cadenas de Markov.
Operaciones matriciales
Dadas las matrices A y B de m×n, su suma A+B se puede definir como una matriz de m×n, y los términos de I y J son (A +B ) [i, j] = A [I, j] + B [I, J]. Por ejemplo:
Para la suma alternativa, consulte suma de matrices.
Dada una matriz a y un número c, se puede definir un producto escalar ca, donde (cA)[i, j] = cA[i, j]. Por ejemplo
Estas dos operaciones hacen de M(m, n, R) un espacio lineal real con dimensión mn.
El producto de dos matrices se puede definir si el número de columnas de una matriz es igual al número de filas de la otra matriz. Por ejemplo, a es una matriz m×n, b es una matriz n×p y son productos. AB es una matriz m×p, donde
(ab) [i, j] = a [i, 1] * b [1, j] + a [i, 2] * b [2, j ]+...+a[i,n] * b[n,j] para todo I y .
Por ejemplo
Este tipo de multiplicación tiene las siguientes características:
(AB)C = A(BC) para todas las matrices k×m A, m ×n Matriz B y n×p matriz C ("ley asociativa").
(A+B)C = AC+BC para todas las matrices m×n A y B y la matriz C n×k ("ley de distribución").
C(A+B) = CA+CB para todas las matrices m×n A y B y la matriz k×m C ("ley de distribución").
Cabe señalar que la sustituibilidad no necesariamente se cumple, es decir, existen matrices A y B tales que AB ≠ BA.
Para otras multiplicaciones especiales, consulte Multiplicación de matrices.
Transformación lineal, rango, transposición
La matriz es una expresión conveniente de transformación lineal, porque la síntesis de multiplicación de matrices y transformación lineal tiene la siguiente relación:
N× 1La matriz (es decir, el vector de longitud n) está representada por Rn. Para cada transformación lineal f:rn->Rm existe una única matriz m×n a tal que f(x) = Ax para todo x ∈ Rn. Esta matriz a "representa" la transformación lineal f, y actualmente otra matriz k×m b representa la transformación lineal g: RM->Rk, entonces el producto matricial BA representa la transformación lineal g o f.
La dimensión de la imagen de álgebra lineal representada por la matriz A se llama rango de matriz de A. El rango de la matriz es también la dimensión de la fila (o columna) que genera el espacio de A.
La transpuesta de la matriz A de m×n es la matriz Atr de n×m (también llamada AT o tA) generada por la fórmula del ángulo de intercambio fila-fila, es decir, para todo I y j, Atr [i, j] = A[j,i], si A representa una transformación lineal, entonces Atr representa su operador dual. La transposición tiene las siguientes características:
(A + B)tr = Atr + Btr, (AB)tr = BtrAtr.