Artículos

7.7E: El método de Frobenius II (Ejercicios) - Matemáticas


Q7.6.1

En Ejercicios 7.6.1-7.6.11 encontrar un conjunto fundamental de soluciones de Frobenius. Opcionalmente, escriba un programa de computadora para implementar las fórmulas de recurrencia aplicables y tome (N> 7 ).

1. (x ^ 2y '' - x (1-x) y '+ (1-x ^ 2) y = 0 )

2. (x ^ 2 (1 + x + 2x ^ 2) y '+ x (3 + 6x + 7x ^ 2) y' + (1 + 6x-3x ^ 2) y = 0 )

3. (x ^ 2 (1 + 2x + x ^ 2) y '' + x (1 + 3x + 4x ^ 2) y'-x (1-2x) y = 0 )

4. (4x ^ 2 (1 + x + x ^ 2) y '' + 12x ^ 2 (1 + x) y '+ (1 + 3x + 3x ^ 2) y = 0 )

5. (x ^ 2 (1 + x + x ^ 2) y '' - x (1-4x-2x ^ 2) y '+ y = 0 )

6. (9x ^ 2y '' + 3x (5 + 3x-2x ^ 2) y '+ (1 + 12x-14x ^ 2) y = 0 )

7. (x ^ 2y '' + x (1 + x + x ^ 2) y '+ x (2-x) y = 0 )

8. (x ^ 2 (1 + 2x) y '' + x (5 + 14x + 3x ^ 2) y '+ (4 + 18x + 12x ^ 2) y = 0 )

9. (4x ^ 2y '' + 2x (4 + x + x ^ 2) y '+ (1 + 5x + 3x ^ 2) y = 0 )

10. (16x ^ 2y '' + 4x (6 + x + 2x ^ 2) y '+ (1 + 5x + 18x ^ 2) y = 0 )

11. (9x ^ 2 (1 + x) y '' + 3x (5 + 11x-x ^ 2) y '+ (1 + 16x-7x ^ 2) y = 0 )

Q7.6.2

En Ejercicios 7.6.12-7.6.22 encontrar un conjunto fundamental de soluciones de Frobenius. Da fórmulas explícitas para los coeficientes.

12. (4x ^ 2y '' + (1 + 4x) y = 0 )

13. (36x ^ 2 (1-2x) y '' + 24x (1-9x) y '+ (1-70x) y = 0 )

14. (x ^ 2 (1 + x) y '' - x (3-x) y '+ 4y = 0 )

15. (x ^ 2 (1-2x) y '' - x (5-4x) y '+ (9-4x) y = 0 )

16. (25x ^ 2y '' + x (15 + x) y '+ (1 + x) y = 0 )

17. (2x ^ 2 (2 + x) y '' + x ^ 2y '+ (1-x) y = 0 )

18. (x ^ 2 (9 + 4x) y '' + 3xy '+ (1 + x) y = 0 )

19. (x ^ 2y '' - x (3-2x) y '+ (4 + 3x) y = 0 )

20. (x ^ 2 (1-4x) y '' + 3x (1-6x) y '+ (1-12x) y = 0 )

21. (x ^ 2 (1 + 2x) y '' + x (3 + 5x) y '+ (1-2x) y = 0 )

22. (2x ^ 2 (1 + x) y '' - x (6-x) y '+ (8-x) y = 0 )

Q7.6.3

En Ejercicios 7.6.23-7.6.27 encontrar un conjunto fundamental de soluciones de Frobenius. Compara los términos que involucran a (x ^ {n + r_ {1}} ), donde (0 leq n leq N ) ( (N ) al menos (7 )) y (r_ { 1} ) es la raíz de la ecuación indicial. Opcionalmente, escriba un programa de computadora para implementar las fórmulas de recurrencia aplicables y tome (N> 7 ).

23. (x ^ 2 (1 + 2x) y '' + x (5 + 9x) y '+ (4 + 3x) y = 0 )

24. (x ^ 2 (1-2x) y '' - x (5 + 4x) y '+ (9 + 4x) y = 0 )

25. (x ^ 2 (1 + 4x) y '' - x (1-4x) y '+ (1 + x) y = 0 )

26. (x ^ 2 (1 + x) y '' + x (1 + 2x) y '+ xy = 0 )

27. (x ^ 2 (1-x) y '' + x (7 + x) y '+ (9-x) y = 0 )

Q7.6.4

En Ejercicios 7.6.28-7.6.38 encontrar un conjunto fundamental de soluciones de Frobenius. Da fórmulas explícitas para los coeficientes.

28. (x ^ 2y '' - x (1-x ^ 2) y '+ (1 + x ^ 2) y = 0 )

29. (x ^ 2 (1 + x ^ 2) y '' - 3x (1-x ^ 2) y '+ 4y = 0 )

30. (4x ^ 2y '' + 2x ^ 3y '+ (1 + 3x ^ 2) y = 0 )

31. (x ^ 2 (1 + x ^ 2) y '' - x (1-2x ^ 2) y '+ y = 0 )

32. (2x ^ 2 (2 + x ^ 2) y '' + 7x ^ 3y '+ (1 + 3x ^ 2) y = 0 )

33. (x ^ 2 (1 + x ^ 2) y '' - x (1-4x ^ 2) y '+ (1 + 2x ^ 2) y = 0 )

34. (4x ^ 2 (4 + x ^ 2) y '' + 3x (8 + 3x ^ 2) y '+ (1-9x ^ 2) y = 0 )

35. (3x ^ 2 (3 + x ^ 2) y '' + x (3 + 11x ^ 2) y '+ (1 + 5x ^ 2) y = 0 )

36. (4x ^ 2 (1 + 4x ^ 2) y '' + 32x ^ 3y '+ y = 0 )

37. (9x ^ 2y '' - 3x (7-2x ^ 2) y '+ (25 + 2x ^ 2) y = 0 )

38. (x ^ 2 (1 + 2x ^ 2) y '' + x (3 + 7x ^ 2) y '+ (1-3x ^ 2) y = 0 )

Q7.6.5

En Ejercicios 7.6.39-7.6.43 encontrar un conjunto fundamental de soluciones de Frobenius. Calcule los términos que involucran a (x ^ {2m + r_ {1}} ), donde (0 ≤ m ≤ M ) ( (M ) al menos (3 )) y (r_ {1} ) es la raíz de la ecuación indicial. Opcionalmente, escriba un programa de computadora para implementar las fórmulas de recurrencia aplicables y tome (M> 3 ).

39. (x ^ 2 (1 + x ^ 2) y '' + x (3 + 8x ^ 2) y '+ (1 + 12x ^ 2) y )

40. (x ^ 2y '' - x (1-x ^ 2) y '+ (1 + x ^ 2) y = 0 )

41. (x ^ 2 (1-2x ^ 2) y '' + x (5-9x ^ 2) y '+ (4-3x ^ 2) y = 0 )

42. (x ^ 2 (2 + x ^ 2) y '' + x (14-x ^ 2) y '+ 2 (9 + x ^ 2) y = 0 )

43. (x ^ 2 (1 + x ^ 2) y '' + x (3 + 7x ^ 2) y '+ (1 + 8x ^ 2) y = 0 )

Q7.6.6

En Ejercicios 7.6.44-7.6.52 encontrar un conjunto fundamental de soluciones de Frobenius. Da fórmulas explícitas para los coeficientes.

44. (x ^ 2 (1-2x) y '' + 3xy '+ (1 + 4x) y = 0 )

45. (x (1 + x) y '' + (1-x) y '+ y = 0 )

46. ​​ (x ^ 2 (1-x) y '' + x (3-2x) y '+ (1 + 2x) y = 0 )

47. (4x ^ 2 (1 + x) y '' - 4x ^ 2y '+ (1-5x) y = 0 )

48. (x ^ 2 (1-x) y '' - x (3-5x) y '+ (4-5x) y = 0 )

49. (x ^ 2 (1 + x ^ 2) y '' - x (1 + 9x ^ 2) y '+ (1 + 25x ^ 2) y = 0 )

50. (9x ^ 2y '' + 3x (1-x ^ 2) y '+ (1 + 7x ^ 2) y = 0 )

51. (x (1 + x ^ 2) y '' + (1-x ^ 2) y'-8xy = 0 )

52. (4x ^ 2y '' + 2x (4-x ^ 2) y '+ (1 + 7x ^ 2) y = 0 )

Q7.6.7

53. Bajo los supuestos del teorema 7.6.2, suponga que la serie de potencias

[ sum_ {n = 0} ^ infty a_n (r_1) x ^ n quad mbox {y} quad sum_ {n = 1} ^ infty a_n '(r_1) x ^ n nonumber ]

convergen en ((- rho, rho) ).

  1. Muestre que [y_1 = x ^ {r_1} sum_ {n = 0} ^ infty a_n (r_1) x ^ n quad mbox {y} quad y_2 = y_1 ln x + x ^ {r_1} sum_ {n = 1} ^ infty a_n '(r_1) x ^ n nonumber ] son ​​linealmente independientes en ((0, rho) ). SUGERENCIA: Muestre que si (c_ {1} ) y (c_ {2} ) son constantes tales que (c_ {1} y_ {1} + c_ {2} y_ {2} ≡0 ) en ((0, rho) ), luego [(c_ {1} + c_ {2} ln x) sum_ {n = 0} ^ { infty} a_ {n} (r_ {1}) x ^ {n} + c_ {2} sum_ {n = 1} ^ { infty} a_ {n} '(r_ {1}) x ^ {n} = 0, quad 0
  2. Utilice el resultado de (a) para completar la demostración del teorema 7.6.2.

54. Deja

[Ly = x ^ 2 ( alpha_0 + alpha_1x) y '' + x ( beta_0 + beta_1x) y '+ ( gamma_0 + gamma_1x) y nonumber ]

y definir

[p_0 (r) = alpha_0r (r-1) + beta_0r + gamma_0 quad mbox {y} quad p_1 (r) = alpha_1r (r-1) + beta_1r + gamma_1. nonumber ]

Teorema 7.6.1 y Ejercicio 7.5.55a

implica que si

[y (x, r) = x ^ r sum_ {n = 0} ^ infty a_n (r) x ^ n nonumber ]

donde

[a_n (r) = (- 1) ^ n prod_ {j = 1} ^ n {p_1 (j + r-1) over p_0 (j + r)}, nonumber ]

luego

[Ly (x, r) = p_0 (r) x ^ r. Nonumber ]

Ahora suponga que (p_0 (r) = alpha_0 (r-r_1) ^ 2 ) y (p_1 (k + r_1) ne0 ) si (k ) es un número entero no negativo.

  1. Muestre que (Ly = 0 ) tiene la solución [y_1 = x ^ {r_1} sum_ {n = 0} ^ infty a_n (r_1) x ^ n, nonumber ] donde [a_n (r_1) = {(- 1) ^ n over alpha_0 ^ n (n!) ^ 2} prod_ {j = 1} ^ np_1 (j + r_1-1). Nonumber ]
  2. Demuestre que (Ly = 0 ) tiene la segunda solución [y_2 = y_1 ln x + x ^ {r_1} sum_ {n = 1} ^ infty a_n (r_1) J_nx ^ n, nonumber ] donde [J_n = sum_ {j = 1} ^ n {p_1 '(j + r_1-1) sobre p_1 (j + r_1-1)} - 2 sum_ {j = 1} ^ n {1 sobre j }.sin número]
  3. Concluya de (a) y (b) que si ( gamma_1 ne0 ) entonces [y_1 = x ^ {r_1} sum_ {n = 0} ^ infty {(-1) ^ n over (n !) ^ 2} left ( gamma_1 over alpha_0 right) ^ nx ^ n nonumber ] y [y_2 = y_1 ln x-2x ^ {r_1} sum_ {n = 1} ^ infty {(-1) ^ n over (n!) ^ 2} left ( gamma_1 over alpha_0 right) ^ n left ( sum_ {j = 1} ^ n {1 over j} right ) x ^ n nonumber ] son ​​soluciones de [ alpha_0x ^ 2y '' + beta_0xy '+ ( gamma_0 + gamma_1x) y = 0. nonumber ] (La conclusión también es válida si ( gamma_1 = 0 ). ¿Por qué?)

55. Deja

[Ly = x ^ 2 ( alpha_0 + alpha_qx ^ q) y '' + x ( beta_0 + beta_qx ^ q) y '+ ( gamma_0 + gamma_qx ^ q) y nonumber ]

donde (q ) es un número entero positivo, y define

[p_0 (r) = alpha_0r (r-1) + beta_0r + gamma_0 quad mbox {y} quad p_q (r) = alpha_qr (r-1) + beta_qr + gamma_q. nonumber ]

Suponer

[p_0 (r) = alpha_0 (r-r_1) ^ 2 quad mbox {y} quad p_q (r) not equiv0. nonumber ]

  1. Recordar de Ejercicio 7.5.59 que (Ly ~ = 0 ) tiene la solución [y_1 = x ^ {r_1} sum_ {m = 0} ^ infty a_ {qm} (r_1) x ^ {qm}, nonumber ] donde [a_ {qm} (r_1) = {(- 1) ^ m over (q ^ 2 alpha_0) ^ m (m!) ^ 2} prod_ {j = 1} ^ mp_q left (q (j- 1) + r_1 derecha). Nonumber ]
  2. Demuestre que (Ly = 0 ) tiene la segunda solución [y_2 = y_1 ln x + x ^ {r_1} sum_ {m = 1} ^ infty a_ {qm} '(r_1) J_mx ^ {qm} , nonumber ] donde [J_m = sum_ {j = 1} ^ m {p_q ' left (q (j-1) + r_1 right) sobre p_q left (q (j-1) + r_1 right)} - ​​{2 over q} sum_ {j = 1} ^ m {1 over j}. nonumber ]
  3. Concluya de (a) y (b) que si ( gamma_q ne0 ) entonces [y_1 = x ^ {r_1} sum_ {m = 0} ^ infty {(-1) ^ m over (m !) ^ 2} left ( gamma_q over q ^ 2 alpha_0 right) ^ mx ^ {qm} nonumber ] y [y_2 = y_1 ln x- {2 over q} x ^ {r_1 } sum_ {m = 1} ^ infty {(-1) ^ m over (m!) ^ 2} left ( gamma_q over q ^ 2 alpha_0 right) ^ m left ( sum_ { j = 1} ^ m {1 over j} right) x ^ {qm} nonumber ] son ​​soluciones de [ alpha_0x ^ 2y '' + beta_0xy '+ ( gamma_0 + gamma_qx ^ q) y = 0. nonumber ]

56. La ecuación

[xy '' + y '+ xy = 0 nonumber ]

es Ecuación de Bessel de orden cero. (Ver Ejercicio 7.5.53.) Encuentre dos soluciones de Frobenius linealmente independientes de esta ecuación.

57. Suponga que los supuestos de Ejercicio 7.5.53 espera, excepto que

[p_0 (r) = alpha_0 (r-r_1) ^ 2. nonumber ]

Muestra esa

[y_1 = {x ^ {r_1} over alpha_0 + alpha_1x + alpha_2x ^ 2} quad mbox {y} quad y_2 = {x ^ {r_1} ln x over alpha_0 + alpha_1x + alpha_2x ^ 2} nonumber ]

son soluciones de Frobenius linealmente independientes de

[x ^ 2 ( alpha_0 + alpha_1x + alpha_2 x ^ 2) y '' + x ( beta_0 + beta_1x + beta_2x ^ 2) y '+ ( gamma_0 + gamma_1x + gamma_2x ^ 2) y = 0 nonumber ]

en cualquier intervalo ((0, rho) ) en el que ( alpha_0 + alpha_1x + alpha_2x ^ 2 ) no tiene ceros.

Q7.6.8

58. (4x ^ 2 (1 + x) y '' + 8x ^ 2y '+ (1 + x) y = 0 )

59. (9x ^ 2 (3 + x) y '' + 3x (3 + 7x) y '+ (3 + 4x) y = 0 )

60. (x ^ 2 (2-x ^ 2) y '' - x (2 + 3x ^ 2) y '+ (2-x ^ 2) y = 0 )

61. (16x ^ 2 (1 + x ^ 2) y '' + 8x (1 + 9x ^ 2) y '+ (1 + 49x ^ 2) y = 0 )

62. (x ^ 2 (4 + 3x) y '' - x (4-3x) y '+ 4y = 0 )

63. (4x ^ 2 (1 + 3x + x ^ 2) y '' + 8x ^ 2 (3 + 2x) y '+ (1 + 3x + 9x ^ 2) y = 0 )

64. (x ^ 2 (1-x) ^ 2y '' - x (1 + 2x-3x ^ 2) y '+ (1 + x ^ 2) y = 0 )

65. (9x ^ 2 (1 + x + x ^ 2) y '' + 3x (1 + 7x + 13x ^ 2) y '+ (1 + 4x + 25x ^ 2) y = 0 )

Q7.6.9

66.

  1. Sean (L ) y (y (x, r) ) como en Ejercicios 7.5.57 y 7.5.58. Amplíe el teorema 7.6.1 mostrando que [L left ({ partial y over partial r} (x, r) right) = p'_0 (r) x ^ r + x ^ rp_0 (r) en x. nonumber ]
  2. Muestre que si [p_0 (r) = alpha_0 (r-r_1) ^ 2 nonumber ] entonces [y_1 = y (x, r_1) quad text {y} quad y_2 = { partial y sobre parcial r} (x, r_1) nonumber ] son ​​soluciones de (Ly = 0 ).

7.7E: El método de Frobenius II (Ejercicios) - Matemáticas

Manual de solución de cálculo 7e James Stewart [PDF]

Cálculo temprano trascendental (solución 7E) por James Stewart

MathSchoolinternational contiene más de 5000 libros PDF gratuitos de matemáticas y libros PDF gratuitos de física. Los cuales cubren casi todos los temas para estudiantes de Matemáticas, Física e Ingeniería. Aquí hay una lista extensa de libros electrónicos de Cálculo. Esperamos que a los estudiantes y profesores les gusten estos libros de texto, notas y manuales de soluciones.

Como estudiante de ingeniería, economía, matemáticas o física, debes realizar un curso de cálculo. mathschoolinternational proporciona una colección completa de los siguientes mejores libros de texto, los mejores manuales de soluciones y notas resueltas que serán útiles para usted y aumentarán su eficiencia.
• Los 10 mejores cálculos de una sola variable
• Los 10 mejores cálculos mutlivariables
• Los 5 mejores cálculos AP
• Los 7 mejores cálculos con geometría analítica
• Cálculo de trascendentales tempranos
• Los 25 mejores cálculos resueltos
• Los 50 mejores cálculos avanzados

Felicitaciones, el enlace está disponible para descarga gratuita.

¿Cómo descargar un libro ?,. ¿Necesitas ayuda?

Sobre este libro :-
Cálculo trascendentales tempranos (7E) escrito por James Stewart.
¡El éxito en tu curso de cálculo comienza aquí! Los textos de CALCULUS: EARLY TRANSCENDENTALS de James Stewart son los más vendidos en todo el mundo por una razón: son claros, precisos y están llenos de ejemplos relevantes del mundo real. Con CALCULUS: EARLY TRANSCENDENTALS, octava edición, Stewart transmite no solo la utilidad del cálculo para ayudarlo a desarrollar la competencia técnica, sino que también le brinda una apreciación de la belleza intrínseca del tema. Sus ejemplos de pacientes y ayudas de aprendizaje integradas le ayudarán a desarrollar su confianza matemática y alcanzar sus objetivos en el curso.

Detalle del libro: -
Título: Cálculo primitivo trascendental (solución)
Edición: Séptimo
Autor (es): James Stewart
Editor: Brooks / Cole
Serie:
Año: 2015
Paginas: 1778
Escribe: PDF
Idioma: inglés
ISBN: 1285741552,978-1-285-74155-0,978-1-305-27235-4
País: Canadá
Obtenga este libro de Amazon

Sobre el autor :-
Cálculo temprano trascendental (solución 7E) escrito por James Stewart.
Recibió su M. S. (maestría en ciencias) en la Universidad de Stanford y su Ph.D. (doctor en filosofía) de la Universidad de Toronto.
Trabajó como becario postdoctoral en la Universidad de Londres, donde su investigación se centró en el análisis armónico y funcional. Stewart fue recientemente profesor de Matemáticas en la Universidad McMaster y su campo de investigación fue el análisis armónico. Stewart fue el autor de la mejor serie de libros de texto de cálculo publicada por Cengage Learning, que incluye Cálculo, Cálculo: principios trascendentales y Cálculo: conceptos y contextos, así como una serie de textos de precálculo.

Únase a nuestras nuevas actualizaciones, alertas: -
Para recibir nuevas actualizaciones y alertas, únase a nuestro Grupo de WhatsApp y Grupo de Telegram (también puede solicitar cualquier libro / notas / manual de soluciones [pdf]).
Únete al grupo de WhatsApp
Únete al grupo de Telegram

Contenido del libro: -
Cálculo temprano trascendental (solución 7E) escrito por James Stewart cubre los siguientes temas. 1. FUNCIONES Y MODELOS.
Cuatro formas de representar una función. Modelos matemáticos: un catálogo de funciones esenciales. Nuevas funciones a partir de funciones antiguas. Computadoras y calculadoras gráficas. Principios de resolución de problemas.
2. LÍMITES.
Los problemas de la tangente y la velocidad. El límite de una función. Cálculo de límites utilizando las leyes de límites. La definición precisa de un límite. Continuidad.
3. DERIVADOS.
Derivados y tipos de cambio. Proyecto de escritura: Métodos tempranos para encontrar tangentes. La derivada como función. Fórmulas de diferenciación. Proyecto aplicado: Construcción de una mejor montaña rusa. Derivadas de funciones trigonométricas. La regla de la cadena. Proyecto aplicado: ¿Dónde debería comenzar un descenso piloto ?. Diferenciación implícita. Tasas de cambio en las ciencias naturales y sociales. Tarifas relacionadas. Aproximaciones lineales y diferenciales. Proyecto de laboratorio: Polinomios de Taylor.
4. APLICACIONES DE DIFERENCIACIÓN.
Valores máximos y mínimos. Proyecto aplicado: El cálculo de arco iris. El teorema del valor medio. Cómo afectan las derivadas a la forma de un gráfico. Límites en las asíntotas horizontales infinitas. Resumen del boceto de curvas. Graficar con cálculo y calculadoras. Problemas de optimización. Proyecto aplicado: la forma de una lata. Método de Newton. Antiderivadas.
5. INTEGRALES.
Áreas y distancias. La Integral Definida. Proyecto de descubrimiento: funciones de área. El teorema fundamental del cálculo. Integrales indefinidas y el teorema del cambio neto. Proyecto de escritura: Newton, Leibniz y la invención del cálculo. La regla de sustitución.
6. APLICACIONES DE INTEGRACIÓN.
Áreas entre curvas. Volumen. Volúmenes por conchas cilíndricas. Trabajo. Valor medio de una función.
7. FUNCIONES INVERSAS:
FUNCIONES EXPONENCIALES, LOGARITMICAS Y TRIGONOMETRICAS INVERSAS. Funciones inversas. (Los instructores pueden cubrir las Secciones 7.2-7.4 o las Secciones 7.2 * -7.4 *). Funciones exponenciales y sus derivadas. Funciones logarítmicas. Derivadas de funciones logarítmicas. * La función logarítmica natural. * La función exponencial natural. * Funciones logarítmicas y exponenciales generales. Crecimiento exponencial y decadencia. Funciones trigonométricas inversas. Proyecto aplicado: dónde sentarse en el cine. Funciones hiperbólicas. Formas indeterminadas y regla de L'Hospital. Proyecto de escritura: Los orígenes de la regla de L'Hospital.
8. TÉCNICAS DE INTEGRACIÓN.
Integración por partes. Integrales trigonométricas. Sustitución trigonométrica. Integración de funciones racionales por fracciones parciales. Estrategia de integración. Integración mediante tablas y sistemas informáticos de álgebra. Proyecto de descubrimiento: Patrones en integrales. Integración aproximada. Integrales inadecuadas.
9. OTRAS APLICACIONES DE INTEGRACIÓN.
Longitud de arco. Proyecto de descubrimiento: Concurso de longitud de arco. Área de una superficie de revolución. Proyecto de descubrimiento: rotación inclinada. Aplicaciones a la física y la ingeniería. Proyecto Descubrimiento: Tazas de café complementarias. Aplicaciones a la economía y la biología. Probabilidad.
10. ECUACIONES DIFERENCIALES.
Modelado con ecuaciones diferenciales. Campos de dirección y método de Euler. Ecuaciones separables. Proyecto aplicado: ¿Qué es más rápido, subir o bajar? Modelos de crecimiento poblacional. Proyecto Aplicado: Cálculo y Béisbol. Ecuaciones lineales. Sistemas depredador-presa. Ecuaciones PARAMÉTRICAS y coordenadas polares.
Curvas definidas por ecuaciones paramétricas. Proyecto de laboratorio: Familias de hipocicloides. Cálculo con curvas paramétricas. Proyecto de laboratorio: Curvas de Bezier. Coordenadas polares. Áreas y longitudes en coordenadas polares. Secciones cónicas. Secciones cónicas en coordenadas polares.
11. SECUENCIAS Y SERIES INFINITAS.
Secuencias. Proyecto de laboratorio: Secuencias logísticas. Serie. La prueba integral y estimaciones de sumas. Las pruebas de comparación. Serie alterna. Convergencia absoluta y pruebas de razón y raíz. Estrategia para la serie de pruebas. Serie de potencia. Representación de funciones como series de potencias. Serie Taylor y Maclaurin. Proyecto de escritura: Cómo descubrió Newton la serie binomial. Aplicaciones de los polinomios de Taylor. Proyecto aplicado: Radiación de las estrellas.
12. VECTORES Y GEOMETRÍA DEL ESPACIO.
Sistemas de coordenadas tridimensionales. Vectores. El producto punto. El producto cruzado. Proyecto de descubrimiento: la geometría de un tetraedro. Ecuaciones de rectas y planos. Cilindros y superficies cuádricas.
13. FUNCIONES VECTORIALES.
Funciones vectoriales y curvas espaciales. Derivadas e integrales de funciones vectoriales. Longitud y curvatura del arco. Movimiento en el espacio: velocidad y aceleración. Proyecto aplicado: leyes de Kepler.
14. DERIVADOS PARCIALES.
Funciones de varias variables. Límites y continuidad. Derivadas parciales. Planos tangentes y aproximaciones lineales. La regla de la cadena. Derivadas direccionales y el vector de degradado. Valores máximos y mínimos. Proyecto aplicado: Diseño de un contenedor de basura. Proyecto de descubrimiento: aproximaciones cuadráticas y puntos críticos. Multiplicadores de Lagrange. Proyecto aplicado: Ciencia espacial. Proyecto Aplicado: Optimización Hidro-Turbina.
15. INTEGRALES MÚLTIPLES.
Integrales dobles sobre rectángulos. Integrales iteradas. Integrales dobles sobre regiones generales. Integrales dobles en coordenadas polares. Aplicaciones de integrales dobles. Integrales triples. Proyecto de descubrimiento: volúmenes de hiperesferas. Integrales triples en cilíndrico. Proyecto de descubrimiento: la intersección de tres cilindros. Integrales triples en coordenadas esféricas. Proyecto aplicado: Roller Derby. Cambio de Variables en Integrales Múltiples. 17. CÁLCULO VECTORIAL. Campos de vector. Integrales de línea. El teorema fundamental de las integrales de línea. Teorema de Green. Curl y divergencia. Superficies paramétricas y sus áreas. Integrales de superficie. Teorema de Stokes. Proyecto de escritura: Tres hombres y dos teoremas. El teorema de la divergencia. Resumen.
16. CÁLCULO VECTORIAL
Campos vectoriales, integrales de línea, teorema fundamental de integrales de línea, teorema de Green, curvatura y divergencia, superficies paramétricas y sus áreas, integrales de superficie, teorema de Stokes, proyecto de escritura • Tres hombres y dos teoremas, teorema de divergencia
17. ECUACIONES DIFERENCIALES DE SEGUNDO ORDEN.
Ecuaciones lineales de segundo orden. Ecuaciones lineales no homogéneas. Aplicaciones de ecuaciones diferenciales de segundo orden. Soluciones en serie.
Apéndices.
A: intervalos, desigualdades y valores absolutos. B: Coordinar geometría y líneas. C: Gráficas de ecuaciones de segundo grado. D: trigonometría. E: notación sigma. F: Pruebas de teoremas. G. Números complejos. H: Respuestas a ejercicios con números impares.

No somos los propietarios de este libro / notas. Se lo proporcionamos, que ya está disponible en Internet. Para cualquier consulta adicional por favor contáctenos. Nunca APOYAMOS LA PIRATERÍA. Esta copia se proporcionó a los estudiantes que tienen problemas económicos pero que quieren estudiar para aprender. Si cree que este material es útil, consígalo legalmente de los EDITORES. Gracias.


Códigos lineales

MinJia Shi,. Patrick Sole, en Códigos y anillos, 2017

5.2 Independencia modular

En general, sobre un anillo semilocal finito no existe una forma matricial simple como en la sección anterior. Una forma estándar, usando el CRT, se definió en [5] para el caso de anillos Z m, y se generalizó a PIR finitos en [1]. Nuestras exposiciones siguen [1].

Ejercicio 5.6

Sea R = Z 4 [x] / (x 2). Muestra esa R es local de Frobenius pero no un anillo de cadena.

Primero, defina independencia modular sobre un anillo local de Frobenius R, con máximo ideal METRO. Una familia de s Se dice que los vectores w 1, ..., w s son independientes modulares si cualquier relación de combinación lineal

Definimos un base de un código sobre un anillo finito de Frobenius como un sistema de vectores que es independiente, modular independiente y de expansión. Como se indica en [1, Observación 2], las dos propiedades de independencia e independencia modular son lógicamente independientes.

Ejercicio 5.7

Sea R = Z 12, y w 1 = (11, 7), w 2 = (3, 9). Demuestre que el sistema es modular independiente, pero no independiente.

Ejercicio 5.8

Sea R = Z 12 y w 1 = (4, 0), w 2 = (0, 3). Demuestre que el sistema es independiente, pero no modular independiente.

El siguiente resultado se deriva de [4, Th. 25.4.6.B] y [4, Th. 25.3.3] en [1, Th. 4.4].

Si C es un código de longitud n sobre un PIR R finito, entonces existe una torre de ideales (d 1) ⊆ (d 2) ⊆ ⋯ ⊆ (d r) , de modo que tenemos el isomorfismo de los módulos R

Denotando el isomorfismo anterior como ϕ, y por e i la imagen de la base canónica de R r, en el producto directo R / (d 1) × ⋯ × R / (d r), tenemos el siguiente resultado de existencia como base.

Teorema 5.10

[1, Th. 4.6] Dejar v yo = ϕ - 1 (mi yo) por i = 1,…, r . El sistema v 1,…, v r es una base de C.


Libros relacionados

Aspectos de la teoría cuántica de campos en el espacio-tiempo curvo

¿Qué es una teoría cuántica de campos?

Una primera introducción para matemáticos

Teoría cuántica de campos para matemáticos

Solitones topológicos y no topológicos en las teorías de campos escalares

Topología, geometría y teoría cuántica de campos

Actas del Simposio de Oxford de 2002 en honor al 60 aniversario de Graeme Segal

Nuevas direcciones en las álgebras de Hopf


Autor (es)

Biografía

Kenneth B. Howell obtuvo una licenciatura en matemáticas y física del Instituto de Tecnología Rose-Hulman, y una maestría y doctorado en matemáticas de la Universidad de Indiana. Durante más de treinta años, fue profesor en el Departamento de Ciencias Matemáticas de la Universidad de Alabama en Huntsville (se jubiló en 2014). Durante su carrera académica, el Dr. Howell publicó numerosos artículos de investigación en matemáticas aplicadas y teóricas en revistas de prestigio, se desempeñó como investigador científico consultor para varias empresas y agencias federales en las industrias espacial y de defensa, y recibió premios del College and University por su destacada enseñando. También es autor de Principles of Fourier Analysis (Chapman & amp Hall / CRC, 2001).


7.7E: El método de Frobenius II (Ejercicios) - Matemáticas

lógica matemática parte II, rene cori, daniel lascar [pdf]

Lógica matemática: un curso con ejercicios Parte II por Rene Cori, Daniel Lascar, Donald H. Pelletier

MathSchoolinternational contiene más de 5000 libros PDF gratuitos de matemáticas y libros PDF gratuitos de física. Los cuales cubren casi todos los temas para estudiantes de Matemáticas, Física e Ingeniería. Aquí hay una lista extensa de libros electrónicos de Matemáticas básicas. Esperamos que a los estudiantes y profesores les gusten estos libros de texto, notas y manuales de soluciones.

Felicitaciones, el enlace está disponible para descarga gratuita.

¿Cómo descargar un libro ?,. ¿Necesitas ayuda?

Sobre este libro :-
Lógica matemática: un curso con ejercicios Parte II escrito por Rene Cori, Daniel Lascar, Donald H. Pelletier
Este libro se basa en la experiencia de varios años en la enseñanza de lógica en la UFR de Matemáticas de la Universidad de París 7, en el nivel de postgrado principiante, así como dentro de la DEA de Lógica y Fundamentos de la Informática. Tan pronto como el autor comenzó a preparar nuestras primeras conferencias, se dio cuenta de que iba a ser muy difícil presentar a nuestros estudiantes trabajos generales sobre lógica escritos en (o incluso traducidos al) francés. Por tanto, los autores decidieron aprovechar esta oportunidad para corregir la situación. Así, las primeras versiones de los ocho capítulos que está a punto de leer se redactaron al mismo tiempo que se enseñaba su contenido. Los autores insisten en agradecer calurosamente a todos los estudiantes que contribuyeron así a una mejora tangible de la presentación inicial.
La lógica forma la base de las matemáticas y, por lo tanto, es una parte fundamental de cualquier curso de matemáticas. Es un elemento importante en la informática teórica y ha experimentado un gran resurgimiento con la creciente importancia de la informática. Este texto se basa en un curso para estudiantes universitarios y proporciona una introducción clara y accesible a la lógica matemática. El concepto de modelo proporciona el tema subyacente, dando al texto una coherencia teórica al mismo tiempo que cubre una amplia área de la lógica. Habiendo sentado las bases en la "Parte I", este libro comienza con la teoría de la recursividad, un tema esencial para el científico completo. Luego siguen los teoremas de incompletitud de Gödel y la teoría de conjuntos axiomáticos. El capítulo 8 proporciona una introducción a la teoría de modelos. Hay ejemplos en cada sección y una variada selección de ejercicios al final. Las respuestas a los ejercicios se encuentran en el apéndice.
Rene Cori y Daniel Lascar, Equipe de Logique Mathematique, Universite Paris VII, Traducido por Donald H. Pelletier, Universidad de York, Toronto

Detalle del libro: -
Título: Lógica matemática: un curso con ejercicios Parte II
Edición:
Autor (es): Rene Cori, Daniel Lascar, Donald H. Pelletier
Editor: prensa de la Universidad de Oxford
Serie:
Año: 2001
Paginas: 347
Escribe: PDF
Idioma: inglés
ISBN: 0198500505,9780198500506
País: nosotros
Obtenga estos libros de Amazon

Sobre el autor :-
El autor Rene Cori es matemático francés.

Únase a nuestras nuevas actualizaciones, alertas: -
Para recibir nuevas actualizaciones y alertas, únase a nuestro Grupo de WhatsApp y Grupo de Telegram (también puede solicitar cualquier libro / notas / manual de soluciones [pdf]).
Únete al grupo de WhatsApp
Únete al grupo de Telegram

Contenido del libro: - Lógica matemática: un curso con ejercicios Parte II escrito por Rene Cori, Daniel Lascar, Donald H. Pelletier cubren los siguientes temas.
Introducción
Parte I
1. Cálculo proposicional
2. Álgebras de Boole
3. Cálculo de predicados
4. Los teoremas de completitud
Soluciones a los ejercicios de la Parte I
Parte II
5. Teoría de la recursividad
6. Formalización de la aritmética, teoremas de Godel
7. Teoría de conjuntos
8. Alguna teoría de modelos
Soluciones a los ejercicios de la Parte II
Bibliografía
Índice

No somos los propietarios de este libro / notas. Se lo proporcionamos, que ya está disponible en Internet. Para cualquier consulta adicional por favor contáctenos. Nunca APOYAMOS LA PIRATERÍA. Esta copia se proporcionó a los estudiantes que tienen problemas económicos pero que quieren estudiar para aprender. Si cree que este material es útil, consígalo legalmente de los EDITORES. Gracias.


7.7E: El método de Frobenius II (Ejercicios) - Matemáticas

EL TEOREMA PERRON-FROBENIUS

Los proyectos de esta colección están relacionados con modelos de muchas áreas diferentes que es parte de su propósito, para mostrar que el álgebra lineal es una rama de las matemáticas de amplia aplicación. Si se revisan en su conjunto, tienen un par de características matemáticas comunes: los valores propios son muy útiles y las matrices estudiadas son casi todas no negativas (todas las entradas en ellas son 0 o más). Para ser un poco más precisos sobre el primero, a menudo es solo el valor propio más grande o dominante que necesitamos conocer.

Esto hace la vida mucho más fácil. Calcular todos los valores propios de una matriz puede resultar una tarea difícil. Para una matriz de 10x10 de un modelo de población, Maple a menudo tiene problemas para calcularlos todos. Sin embargo, solo necesitamos uno de los 10 y los métodos que se muestran en el Proyecto # 10 funcionan de manera confiable.

La pregunta matemática que surge de todo esto es: ¿cómo sabemos si el autovalor dominante de una matriz es positivo? Otra pregunta es: ¿podría haber valores propios positivos y negativos del mismo tamaño? Si es así, el comportamiento del sistema asociado podría ser bastante diferente. La respuesta a esta pregunta es sí, como se muestra en el problema 3 del Proyecto # 10.

Ambas preguntas son respondidas por el Teorema de Perron-Frobenius para matrices no negativas. Los resultados del teorema dependen del tipo de matriz no negativa que se tenga. El primer tipo que miramos se llama irreductible.

DEFINICIÓN Se dice que una matriz A nxn no negativa es irreducible si no hay permutación de coordenadas tal que

donde P es una matriz de permutación nxn (cada fila y cada columna tienen exactamente una entrada 1 y todas las demás 0), A 11 es rxr y A 22 es (n-r) x (n-r). Esta no es una definición particularmente inspiradora en vista del hecho de que solo nos dice lo que NO es irreductible. Casi lo único que sabemos con certeza es que una matriz con todas las entradas positivas es irreductible.

Para aclarar la noción de irreductibilidad, la examinamos en tres contextos diferentes:

1. Cadenas de Markov. Suponga que A es la matriz de transición de una cadena de Markov. Entonces no es negativo y supongamos que además está configurado de modo que

a ij = la probabilidad de pasar del estado j al estado i

Si uno mira, digamos, la cuarta fila de A, entonces ve las probabilidades de pasar del estado 4 a los otros estados (además de permanecer en el estado 4). Cualquier entrada que sea cero indica que no se puede ir a ese estado desde el estado 4, al menos en un paso.

Ahora bien, si A es reducible, por ejemplo,

entonces podemos ver que es posible pasar de los estados 1, 2 o 3 a cualquier estado, pero solo de los estados 4 o 5 a ellos mismos. Esta es, por supuesto, la definición tradicional de estados que absorben cuotas en una cadena de Markov. La matriz de permutación P mencionada anteriormente simplemente equivale a etiquetar los estados para que los absorbentes sean los últimos.

2. Gráficos. Si consideramos gráficos dirigidos, cada uno tiene asociada una matriz no negativa con todas las entradas 0 o 1 con

a ij = 1 si hay un arco desde el vértice i al vértice j.

Si la matriz asociada es irreducible, entonces uno puede ir de cualquier vértice a cualquier otro vértice (quizás en varios pasos) mientras que si es reducible entonces (como el caso de la cadena de Markov), hay vértices desde los cuales uno no puede viajar a todos los demás vértices.

El primer caso, en el ámbito de la teoría de grafos, se denomina grafo & quot; fuertemente conectado & quot ;.

3. Sistemas dinámicos. Supongamos, como en el caso de la población, tenemos un sistema de la forma

y que A es reducible como en la definición anterior. Luego, a la manera de las matrices particionadas, se puede reescribir este sistema como

donde Y tiene las primeras r componentes de X y Z tiene la última n-r, por lo que juntas forman el vector X original. (Se insta al lector que no haya trabajado con matrices particionadas o que esté oxidado con el tema a esbozar los detalles a nivel de componente y verificarlo, el resultado debe seguir de una manera sencilla). Si bien esto puede no parecer útil a primera vista , significa que la solución para Z puede obtenerse primero, sin referencia al sistema que gobierna Y, y luego la solución para Y obtenida del sistema (no homogéneo) que trata a Z como conocido. En el lenguaje inicial de tal problema, el sistema original se ha "reducido" a dos sistemas más simples. Para los físicos, se ha desacoplado parcialmente.

Decir, entonces, que la matriz A es irreductible significa que el sistema no se puede reducir; debe tratarse como un todo al estudiar su comportamiento.

Si bien la discusión anterior puede aclarar la noción de una matriz irreducible, no es de mucha ayuda para verificar que una matriz dada sea realmente irreducible. Por ejemplo, no es descaradamente obvio que de las dos siguientes matrices

el último es irreductible mientras que el primero no lo es. Si nos guiamos estrictamente por la definición, tendríamos que seguir probando permutaciones y buscando que aparezca la submatriz cero crítica. Pero para una matriz nxn hay, por supuesto, n! Es posible que tales matrices P supongan una gran cantidad de trabajo (si A es 10 x 10, ¡hay más de 3 millones de posibilidades!).

El siguiente teorema es, por tanto, bastante directo y útil.

TEOREMA. A es una matriz nxn irreducible no negativa si y solo si

(I n + A) n-1 & gt 0. (consulte [12], p.6 para obtener detalles y pruebas)

Observamos que la potencia en la expresión anterior contiene la misma n que en el tamaño de la matriz. Dado que el software de computadora está fácilmente disponible para calcular las potencias de la matriz, lo anterior se puede verificar fácilmente. Tenga en cuenta que el resultado también es una matriz nxn, y si alguna entrada es cero, entonces el contrapositivo del teorema dice que A es reducible. Refiriéndonos a las dos matrices anteriores, encontramos que por cálculo directo

Llegados a este punto, parece apropiado establecer finalmente la

TEOREMA DE PERRON-FROBENIUS PARA MATRICES IRREDUCIBLES

Si A es nxn, no negativo, irreducible, entonces

1. uno de sus valores propios es positivo y mayor o igual que (en valor absoluto) todos los demás valores propios

2. hay un autovector positivo correspondiente a ese autovalor

y 3. que el valor propio es una raíz simple de la ecuación característica de A.

Dicho valor propio se denomina "valor propio dominante" de A y asumimos de ahora en adelante que hemos numerado los valores propios, por lo que es el primero. Debemos señalar que otros autovalores pueden ser positivos, negativos o complejos (y si son complejos, entonces por & quotabsolute value & quot queremos decir módulo, o distancia en el plano complejo desde el origen). Complex eigenvalues are a real possibility as only symmetric matrices are guaranteed to not have them, and very few of the matrices we have been discussing, in application, will be symmetric with the notable exception of undirected graphs. Part 3 of the theorem also merits brief comment. One ramification of it is that the dominant eigenvalue cannot be a multiple root. One will not be left with the classic situation of having more roots than corresponding linearly independent eigenvectors and hence having to worry about or calculate generalized eigenvectors and/or work with Jordan blocks. The same may not be said for the other eigenvalues of A but in the models here, they do not concern us.

Primitive Matrices and the Perron-Frobenius Theorem

Irreducible matrices are not the only nonnegative matrices of possible interest in the models we have looked at. Suppose we have a dynamical system of the form

(this matrix, while containing many suspicious looking zeroes, is indeed irreducible. The easiest way to see this is to construct the associated graph for it and check that you can get from any vertex to any other vertex.)We calculate that its dominant eigenvalue is 1.653 and that an associated eigenvector is (.29,.48,.29,.35,.5,.48) t so based upon the above discussion, we believe the long term behavior of the system to be of the form:

x (k) = c 1 (1.653) k (.29,.48,.29,.35,.5,.48) t (c 1 determined from initial conditions)

Simulation of the system is, of course, quite easy as one just needs to keep multiplying the current solution by A to get the solution one time period later. However, in this case, doing so does not seem to validate the predicted behavior and in fact does not even seem to show any sort of limit at all! (the reader is encouraged to fire up some software, pick an initial condition and see this behavior).

So what went wrong? If one calculates all of the eigenvalues for the matrix, they turn out to be: 1.653,0,0,+- .856i and -1.653. The latter is where the limit problem arises since we are taking integral powers of the eigenvalues, we get an algebraic "flip-flop" effect:

x (k) = c 1 (1.653) k e 1 + . + c 6 (-1.653) k e 6

(It is, by the way, a known result that an irreducible matrix cannot have two independent eigenvectors that are both nonnegative see [16], chapter 2. Thus e 6 in the above expansion has components of mixed sign.)

Thus 1.653 did not turn out to be as neatly "dominant" as we would have liked. If we look back at the statement of the Perron-Frobenius Theorem, we see it guaranteed a positive eigenvalue (with positive eigenvector) with absolute value greater than or equal to that of any other eigenvalue. In the example just considered, the equality was met.

So the question comes up: what stronger condition than irreducibility should one impose so that a nonnegative matrix has a truly dominant eigenvalue strictly greater in absolute value than any other eigenvalue? The answer is that the matrix needs to be "primitive". While there are several possible definitions of "primitive", most of which have a graphical context in terms of cycles, we will state a more general, algebraic definition as the models we may wish to look at are from a diverse group.

DEFINITION An nxn nonnegative matrix A is primitive iff A k > 0 for some power k.

We note the strict inequality all n 2 entries of A k have to be positive for some power. Such a condition, again considering the availability of computer software and ease of use, is easy to check. If one experiments with the 6x6 from the last example, one never finds a power where all 36 entries are positive. The question might come up: how many powers

of A does one have to look at before concluding it is not primitive? If A is primitive then the power which should have all positive entries is less than or equal to n 2 -2n +2 (this is due to Wielandt in 1950, see [ 17 ]). Also, it can be easily shown that if A is primitive than A is irreducible. Thus the class of primitive matrices has as a subset the class of irreducible matrices. Finally, primitive matrices indeed have the desired property in terms of a dominant eigenvalue:

PERRON-FROBENIUS THEOREM FOR PRIMITIVE MATRICES

If A is an nxn nonnegative primitive matrix then

1. one of its eigenvalues is positive and greater than (in absolute value) all other eigenvalues

2. there is a positive eigenvector corresponding to that eigenvalue

3. that eigenvalue is a simple root of the characteristic equation of A.

In addition to the various projects, some other applications which involve the Perron Frobenious Theorem desire mention:

Application #1: Ranking of Football Teams.

James P. Keener has developed several models of schemes for ranking college football teams which may be found in [6].

In general, it should be remarked that graph theory and nonnegative matrices have a very strong relationship and that the Perron-Frobenius Theorem is often a powerful tool in graph theory. The interested reader is referred to, for example, the excellent books by Minc and Varga for an in depth discussion.

As stated above, a graph (directed or not) has associated with it a nonnegative, "adjacency" matrix whose entries are 0s and 1s. A fundamental result about lengths of cycles in the graph may be obtained by determining whether the matrix is primitive or not. The very elegant result which occurs with the help of the Perron-Frobenius Theorem is this:

* if the matrix is primitive (hence a dominant eigenvalue with absolute value strictly greater than that of all other eigenvalues) then the greatest common divisor (gcd) of the lengths of all cycles is 1

* if the matrix is irreducible but not primitive then the greatest common divisor of the lengths of all cycles is the same as the number of eigenvalues with magnitude the same as the dominant eigenvalue (and including it).

It is common to refer to graphs with matrices which are irreducible but not primitive, naturally, as imprimitive and aforementioned gcd. as the index of the graph. It should also be mentioned that the collection of such eigenvalues lie equally spaced in the complex plane on a circle of radius equaling the dominant eigenvalue.

The interested reader is encouraged to examine the following pair of graphs in light of this result:

In the case of the first graph, the eigenvalues are 1,i,-i, and -1 while in the second graph they are 1.221, -.248 +/-1.034i, and -.724, consistent with the gcd of paths for graph 1 being 4 and the gcd of paths for graph 2 being 1.

The Perron-Frobenius Theorem has proven to be a consistently powerful result for examining certain nonnegative matrices arising in discrete models. It has been shown that careful consideration need be given to what hypothesis is used depending on whether one has an irreducible or primitive matrix. In applications, knowledge of the dominant eigenvalue and eigenvector is very helpful and also attainable while knowledge of the rest of the "spectrum" is both unnecessary and computationally extensive.

The author wishes to thank Dr. Kenneth Lane of KDLLabs, Satellite Beach, Florida, for many inspiring insights and conversations concerning the power and richness of the Perron-Frobenius Theorem.

1. Berman, A. and Plemmons R. 1979. Nonnegative Matrices in the Mathematical Sciences. New York: Academic Press.

2. Chartrand, G. 1977. Graphs as Mathematical Models . Boston: Prindle, Weber and Schmidt.

3. Gould, Peter. 1967. The Geographic Interpretation of Eigenvalues. Transactions of the Institute of British Geographers 42: 53-85.

4. Goulet, J. 1982. Mathematical Systems Analysis - A Course. The UMAP Journal 3 (4):395-406.

6. Keener, James P., 1993. The Perron-Frobenius Theorem and the Ranking of Football Teams. SIAM Review 35 (1): 80-93.

7. Kemeny, John and Snell, Laurie. 1960. Finite Markov Chains . New York: Van Nostrand Reinhold.

8. Lane,Kenneth D.. 1983. Computing the Index of a Graph .Congressus Numerantium, 40 ,143-154

9. Luenberger, D.G. 1979. Dynamic Systems . New York: John Wiley.

11. Maki, D.P. and Thompson, M. 1973. Mathematical Models and Applications . Englewood Cliffs, New Jersey: Prentice-Hall.

12. Minc, Henryk.1988. Nonnegative Matrices . New York: John Wiley and Sons.

14. Straffin, Philip D. 1980. Linear Algebra in Geography: Eigenvectors of Networks. Mathematics Magazine 53 (5): 269-276.

16. Varga, Richard S. 1962. Matrix Iterative Analysis . Englewood Cliffs N.J.: Prentice-Hall.

17. Wielandt,H. 1950. "Unzerlegbare nicht negativen Matrizen" Math. Z . 52 , 642-648.


Table of Contents

Contenido
Preface
Chapter I. Introduction To Partial Differential Equations
1. Introduction
2. The One-Dimensional Wave Equation
3. Method Of Separation Of Variables
4. The Two-Dimensional Wave Equation
5. Three-Dimensional Wave Equation
6. The Wave Equation In Plane And Cylindrical Polar Coordinates
A. Plane Polars
B. Cylindrical Polars
7. The Wave Equation In Spherical Polar Coordinates
8. Laplace's Equation In Two Dimensions
A. Cartesian Coordinates
B. Polar Coordinates
9. Laplace's Equation In Three Dimensions
10. The Diffusion Or Heat Flow Equation
10.1. Neutron Diffusion
11. A Fourth Order Partial Differential Equation
12. The Bending Of An Elastic Plate — The Biharmonic Equation
13. Characteristics
13.1. Cauchy's Problem
13.2. Reduction Of (13.1.1) To The Standard Form
13.3. Riemann's Method Of Solution Of (13.1.1)
13.4. Numerical Integration Of Hyperbolic Differential Equations
Problems
General References
Chapter II. Ordinary Differential Equations: Frobenius' And Other Methods Of Solution
1. Introduction
2. Solution In Series By The Method Of Frobenius
3. Bessel's Equation
4. Legendre's Equation
5. Hyper Geometric Equation
6. Series Solution About A Point Other Than The Origin
6.1. The Transformation X = (1 - ξ)/2
7. Series Solution In Descending Powers Of X
8. Confluent Hypergeometric Equation
8.1. Laguerre Polynomials
8.2. Hermite Polynomials
9. Asymptotic Or Semi-Convergent Series
10. Change Of Dependent Variable
11. Change Of The Independent Variable
12. Exact Equations
13. The Inhomogeneous Linear Equation
14. Perturbation Theory For Non-Linear Differential Equations
14.1. The Perturbation Method
14.2. Periodic Solutions
Problems
General References
Chapter III. Bessel And Legendre Functions
1. Definition Of Special Functions 127
2. Jn(X), The Bessel Function Of The First Kind Of Order N
2.1. Recurrence Relations: Jn(X)
3. Bessel Function Of The Second Kind Of Order N, Yn(X)
4. Equations Reducible To Bessel's Equation
5. Applications
6. Modified Bessel Functions: In(X), Kn(X)
6.1. Recurrence Relations For In(X) And Kn(X)
6.2. Equations Reducible To Bessel's Modified Equation
6.3. Bessel Functions Of The Third Kind (Hankel Functions)
7. Illustrations Involving Modified Bessel Functions
8. Orthogonal Properties
8.1. Expansion Of F(X) In Terms Of Jn(ξix)
8.2. Jn(X) As An Integral (Where N Is Zero Or An Integer)
8.3. Other Important Integrals
9. Integrals Involving The Modified Bessel Functions
10. Zeros Of The Bessel Functions
11. A Generating Function For The Legendre Polynomials
11.1. Recurrence Relations
11.2. Orthogonality Relations For The Legendre Polynomials
11.3. Associated Legendre Functions
12. Applications From Electromagnetism
13. Spherical Harmonics
14. The Addition Theorem For Spherical Harmonics
Problems
General References
Chapter IV. The Laplace And Other Transforms
1. Introduction
2. Laplace Transforms And Some General Properties
3. Solution Of Linear Differential Equations With Constant Coefficients
4. Further Theorems And Their Application
5. Solution Of The Equation Φ(D)x(t) = F(t) By Means Of The Convolution Theorem
6. Application To Partial Differential Equations
7. The Finite Sine Transform
8. The Simply Supported Rectangular Plate
9. Free Oscillations Of A Rectangular Plate
10. Plate Subject To Combined Lateral Load And A Uniform Compression
11. The Fourier Transform
Problems
Chapter V. Matrices
1. Introduction
1.1. Definitions
2. Determinants
2.1. Evaluation Of Determinants
3. Reciprocal Of A Square Matrix
3.1. Determinant Of The Adjoint Matrix
4. Solution Of Simultaneous Linear Equations
4.1. Choleski-Turing Method
4.2. A Special Case: The Matrix A Is Symmetric
5. Eigenvalues (Latent Roots)
5.1. The Cayley-Hamilton Theorem
5.2. Iterative Method For Determination Of Eigenvalues
5.3. Evaluation Of Subdominant Eigenvalue
6. Special Types Of Matrices
6.1. Orthogonal Matrix
6.2. Hermitian Matrix
7. Simultaneous Diagonalization Of Two Symmetric Matrices
Problems
General References
Chapter VI. Analytical Methods In Classical And Wave Mechanics
1. Introduction
2. Definitions
3. Lagrange's Equations Of Motion For Holonomic Systems
3.1. Derivation Of The Equations
3.2. Conservative Forces
3.3. Illustrative Examples
3.4. Energy Equation
3.5. Orbital Motion
3.6. The Symmetrical Top
3.7. The Two-Body Problem
3.8. Velocity-Dependent Potentials
3.9. The Relativistic Lagrangian
4. Hamilton's Equations Of Motion
5. Motion Of A Charged Particle In An Electromagnetic Field
6. The Solution Of The Schrödinger Equation
6.1. The Linear Harmonic Oscillator
6.2. Spherically Symmetric Potentials In Three Dimensions
6.3. Two-Body Problems
Problems
General References
Chapter VII. Calculus Of Variations
1. Introduction
2. The Fundamental Problem: Fixed End-Points
2.1. Special Cases
2.2. Variable End-Points
2.3. A Generalization Of The Fixed End-Point Problem
2.4. One Independent, Several Dependent Variables
2.5. One Dependent And Several Independent Variables
3. Isoperimetric Problems
4. Rayleigh-Ritz Method
4.1. Sturm-Liouville Theory For Fourth-Order Equations
5. Torsion And Viscous Flow Problems
5.1. Torsional Rigidity
5.2. Trefftz Method
5.3. Generalization To Three Dimensions
6. Variational Approach To Elastic Plate Problems
6.1. Boundary Conditions
6.2. Buckling Of Plates
7. Binding Energy Of The He4 Nucleus
8. The Approximate Solution Of Differential Equations
Problems
General References
Chapter VIII. Complex Variable Theory And Conformal Transformations
1. The Argand Diagram
2. Definitions Of Fundamental Operations
3. Function Of A Complex Variable
3.1. Cauchy-Riemann Equations
4. Geometry Of Complex Plane
5. Complex Potential
5.1. Uniform Stream
5.2. Source, Sink And Vortex
5.3. Doublet (Dipole)
5.4. Uniform Flow + Doublet -F Vortex. Flow Past A Cylinder
5.5. A Torsion Problem In Elasticity
6. Conformal Transformation
6.1. Bilinear (Möbius) Transformation
7. Schwarz-Christoffel Transformation
7.1. Applications
7.2. The Kirchhoff Plane
8. Transformation Of A Circle Into An Aerofoil
Problems
General References
Chapter IX. The Calculus Of Residues
1. Definition Of Integration
2. Cauchy's Theorem
3. Cauchy's Integral
3.1. Differentiation
4. Series Expansions
4.1. Laurent's Theorem
5. Zeros And Singularities
5.1. Residues
6. Cauchy Residue Theorem
6.1. Application Of Cauchy's Theorem
6.2. Flow Round A Cylinder
6.3. Definite Integrals. Integration Round Unit Circle
6.4. Infinite Integrals
6.5. Jordan's Lemma
6.6. Another Type Of Infinite Integral
7. Harnack's Theorem And Applications
7.1. The Schwarz And Poisson Formulas
7.2. Application Of Conformai Transformation To Solution Of A Torsion Problem
8. Location Of Zeros Of f(z)
8.1. Nyquist Stability Criterion
9. Summation Of Series By Contour Integration
10. Representation Of Functions By Contour Integrals
10.1. Gamma Function
10.2. Bessel Functions
10.3. Legendre's Function As A Contour Integral
11. Asymptotic Expansions
12. Saddle-Point Method
Problems
General References
Chapter X. Transform Theory
1. Introduction
1.1. Complex Fourier Transform
1.2. Laplace Transform
1.3. Hilbert Transform
1.4. Hankel Transform
1.5. Mellin Transform.
2. Fourier's Integral Theorem
3. Inversion Formulas
3.1. Complex Fourier Transform
3.2. Fourier Sine And Cosine Transforms
3.3. Convolution Theorems For Fourier Transforms
4. Laplace Transform
4.1. The Inversion Integral On The Infinite Circle
4.2. Exercises In The Use Of The Laplace Transform
4.3. Linear Approximation To Axially Symmetrical Supersonic Flow
4.4. Supersonic Flow Round A Slender Body Of Revolution
5. Mixed Transforms
5.1. Linearized Supersonic Flow Past Rectangular Symmetrical Aerofoil
5.2. Heat Conduction In A Wedge
6. Integral Equations
6.1. The Solution Of A Certain Type Of Integral Equation Of The First Kind
6.2. Poisson's Integral Equation
6.3. Abel's Integral Equation
7. Hilbert Transforms
7.1. Infinite Hilbert Transform
7.2. Finite Hilbert Transform
7.3. Alternative Forms Of The Finite Hilbert Transform
Problems
General References
Chapter XI. Numerical Methods
1. Introduction
1.1. Finite Difference Operators
2. Interpolation And Extrapolation
2.1. Linear Interpolation
2.2. Everett's And Bessel's Interpolation Formulas
2.3. Inverse Interpolation
2.4. Lagrange Interpolation Formula
2.5. Formulas Involving Forward Or Backward Differences
3. Some Basic Expansions
4. Numerical Differentiation
5. Numerical Evaluation Of Integrals
5.1. Note On Limits Of Integration
5.2. Evaluation Of Double Integrals
6. Euler-Maclaurin Integration Formula
6.1. Summation Of Series
7. Solution Of Ordinary Differential Equations By Means Of Taylor Series
8. Step-By-Step Method Of Integration For First-Order Equations
8.1. Simultaneous First-Order Equations And Second-Order Equations With The First Derivative Present
8.2. The Second-Order Equation y" = f(x,y)
8.3. Alternative Method For The Linear Equation y" = g(x)y + h(x)
9. Boundary Value Problems For Ordinary Differential Equations Of The Second Order
9.1. Approximate Solution Of Eigenvalue Problems By Finite Differences
9.2. Numerical Solution Of Eigenvalue Equations
10. Linear Difference Equations With Constant Coefficients
11. Finite Differences In Two Dimensions
Problems
General References
Chapter XII. Integral Equations
1. Introduction
1.1. Types Of Integral Equations
1.2. Some Simple Examples Of Linear Integral Equations
2. Volterra Integral Equation Form For A Differential Equation
2.1. Higher Order Equations
3. Fredholm Integral Equation Form For Sturm-Liouville Differential Equations
3.1. The Modified Green's Function
3.2. Green's Function For Fourth-Order Differential Equations
4. Numerical Solution
4.1. The Numerical Solution Of The Homogeneous Equation
4.2. The Volterra Equation
4.3. Iteration Method Of Solution
5. The Variation-Iteration Method For Eigenvalue Problems
Problems
General References
Appendix
1. Δ2Φ In Spherical And Cylindrical Polar Coordinates
1.1. Plane Polar Coordinates
1.2. Cylindrical Polar Coordinates
1.3. Spherical Polar Coordinates
2. Partial Fractions
3. Sequences, Series, And Products
3.1. Sequences
3.2. Series
3.3. Infinite Products
4. Maxima And Minima For Functions Of Two Variables
4.1. Euler's Theorem Of Homogeneous Functions
4.2. The Expansion Of (Sinh aU/)/(Sinh U) In Powers Of 2 Sinh (½)
5. Integration
5.1. Uniform Convergence Of Infinite Integrals
5.2. Change Of Variables In A Double Integral
5.3. Special Integrals
5.4. Elliptic Integrals
6. Principal Valued Integrals
7. Vector Algebra And Calculus
7.1. Curvilinear Coordinates
7.2. The Equation Of Heat Conduction
7.3. Components Of Velocity And Acceleration In Plane Polar Coordinates
7.4. Vectors, Dyads And Tensors
8. Legendre Functions Of Non-Integral Order
8.1. The Value Of Pv(0)
9. An Equivalent Form For F(a,bcx)
10. Integrals Involving Ln(k)(x)
Problems
General References
Solutions Of Problems
Chapter I
Chapter II
Chapter III
Chapter IV
Chapter V
Chapter VI
Chapter VII
Chapter VIII
Chapter IX
Chapter X
Chapter XI
Chapter XII
Appendix
Subject Index


Handbook of the Geometry of Banach Spaces

5 Invariant subspaces of positive operators

In this section we will discuss the Invariant Subspace Problem for operators that are either positive or closely associated with positive operators. The general theory concerning the invariant subspace problem will be presented in a separate article prepared for this volume by Enflo and Lomonosov.

The invariant subspace problem . Does a continuous linear operator T : XX on a Banach space have a non-trivial closed invariant subspace?

A vector subspace is “non-trivial” if it is different from <0>and X. A subspace V de X is T-invariant if T(V) ⊆ V. If V is invariant under every continuous operator that commutes with T, then V is called T-hyperinvariant.

If X is a finite dimensional complex Banach space of dimension greater than one, then each non-zero operator T has a non-trivial closed invariant subspace. On the other hand, if X is non-separable, then the closed vector subspace generated by the orbit < x , T x , T 2 x , … >of any non-zero vector x is a non-trivial closed T-invariant subspace. Thus, the “invariant subspace problem” is of substance only when X is an infinite dimensional separable Banach space. Accordingly, without any further mentioning, all Banach spaces under consideration in this section will be assumed to be infinite dimensional separable real or complex Banach spaces. The only exception will be made while discussing the Perron–Frobenius Theorem.

In 1976, Enflo [ 56 ] was the first to construct an example of a continuous operator on a separable Banach space without a non-trivial closed invariant subspace, and thus he demonstrated that in this general form the invariant subspace problem has a negative answer. Subsequently, Read [ 115–117 ] has constructed a class of bounded operators on ℓ1 without invariant subspaces. For operators on a Hilbert space, the existence of an invariant subspace is still unknown and is one of the famous unsolved problems of modern mathematics. Due to the above counterexamples, the present study of the invariant subspace problem for operators on Banach spaces has been focused on various classes of operators for which one can expect the existence of an invariant subspace.

We start our invariant subspace results with a version of the classical Perron–Frobenius theorem for positive matrices. As usual, we denote by r(T) the spectral radius of an operator T.

If A is a non-negative n × n matrix such that for some k ≥ 1 the matrix A k has strictly positive entries, then the spectral radius of A is a strictly positive eigenvalue of multiplicity one having a strictly positive eigenvector.

The proof of this theorem, discovered by Frobenius [ 60 ] and Perron [ 108 ], is available in practically every book treating non-negative matrices, for instance in [ 33,35,98 ]. One more proof of the Perron–Frobenius theorem as well as many interesting generalizations can be found in [ 112 ]. If all entries of A are strictly positive, then the sequence < 1 [ r ( A ) ] k A k u >converges to a unique strictly positive eigenvector corresponding to the eigenvalue r(A), no matter which initial vector u > 0 is chosen. This fact has numerous applications. A major step in extending the Perron–Frobenius Theorem to infinite dimensional settings was done by Krein and Rutman [ 82 ] who proved the following theorem.

For any positive operator T : XX on a Banach lattice r(T) ∈ σ(T), i.e., the spectral radius of T belongs to the spectrum of T. Furthermore, if T is also compact and r(T) > 0, then there exists some x > 0 such that T x = r(T)x.

Proof . We will sketch a proof. The inclusion r(T) ∈ σ(T) is caused merely by the positivity of T. Indeed, if we denote by R(λ) the resolvent operator of T, then clearly R(λ) > 0 for each λ > r(T), Also for each λ with |λ| > r(T) the inequality || R ( | λ | ) || ≥ || R ( λ ) || holds. Therefore, for λ n = r ( T ) + 1 n we have || R ( λ n ) || → ∞ , whence r(T) ∈ σ(T).

Assume further that T is compact and r(T) > 0. There exist unit vectors ynX+ such that || R ( λ n ) y n || → ∞ . Using the vectors yn, we introduce the unit vectors x n = R ( λ n ) y n / || R ( λ n ) y n || ∈ X + . Ya que T is compact we can assume that TxnxX+. Finally, using the identities

The conclusion of the previous theorem remains valid if we replace the compactness of T by the compactness of some power of T. Indeed, assume that T k is compact for some k. Since r ( T k ) = [ r ( T ) ] k > 0 the previous theorem implies that there is a vector x > 0 such that T k x = [ r ( T ) ] k x . It remains to verify that the non-zero positive vector y = ∑ i = 0 k − 1 r i T k − 1 − i x is an eigenvector of T corresponding to the eigenvalue r(T).

The reader is referred to [ 121,123,144 ] for complete proofs and many pertinent results concerning the Krein–Rutman theorem. Some relevant results can be found in [ 4 ]. Note that the Krein–Rutman theorem holds not only for Banach lattices but for ordered Banach spaces as well. There is an interesting approach allowing to relax the compactness assumption. Namely, as shown by Zabre i ⌣ ko and Smickih [ 146 ] and independently by Nussbaum [ 102 ], instead of the compactness of T it is enough to assume only that the essential spectral radius re(T) is strictly less than the spectral radius r(T). A different type of relaxation is considered in [ 121 ], where the restriction of T to X+ is assumed to be compact, that is, T maps the positive part of the unit ball into a precompact set. A version of this result, given in terms of re(T), can be found in [ 102 ].

Another classical result by M. Krein [ 82 , Theorem 6.3] is the following.

Let T : C(Ω) → C(Ω) be a positive operator, where Ω is a compact Hausdorff space. Then T * , the adjoint of T, has a positive eigenvector corresponding to a non-negative eigenvalue.

Proof . Consider the set G = < f ∈ C ( Ω ) + * : f ( 1 ) = 1 >, where 1 denotes the constant function one on Ω. Clearly, G is a nonempty, convex, and w * -compact subset of C(Ω) * . Next, define the mapping F : GG by

A proof of Theorem 34 that does not use fixed point theorems can be found in [ 77 ].

Every positive operator on a C(Ω)-space (where Ω is Hausdorff, compact and not a singleton) which is not a multiple of the identity has a non-trivial hyperinvariant closed subspace.

Proof . Dejar T : C(Ω) → C(Ω) be a positive operator which is not a multiple of the identity. By Theorem 34 the adjoint operator T * has a positive eigenvector. If λ. denotes the corresponding eigenvalue, then the subspace ( T − λ I ) ( x ) ¯ has the desired properties.

Recall that a continuous operator T : XX on a Banach space is said to be quasinilpotent if its spectral radius is zero. It is well known that T is quasinilpotent if and only if lim n → ∞ || T n x || 1 / n = 0 for each xX. It can happen that a continuous operator T : XX is not quasinilpotent but, nevertheless, lim n → ∞ || T n x || 1 / n = 0 for some x ≠ 0. In this case we say that T is locally quasinilpotent at x. This property was introduced in [ 6 ], where it was found to be useful in the study of the invariant subspace problem. The set of points at which T is quasinilpotent is denoted by Q T, i.e., Q T = < x ∈ X : lim n → ∞ || T n x || 1 / n = 0 >.

It is easy to prove that the set Q T is a T-hyperinvariant vector subspace. We formulate below a few simple properties of the vector space Q T.

The operator T is quasinilpotent if and only if Q T = X.

Q T = <0>is possible — every isometry T satisfies Q T = <0>. Notice also that even a compact positive operator can fail to be locally quasinilpotent at every non-zero vector. For instance, consider the compact positive operator T : ℓ2 → ℓ2 defined by T ( x 1 , x 2 , … ) = ( x 1 , x 2 2 , x 3 3 , ⋯ ) . For each non-zero x ∈ ℓ2 pick some k for which xk ≠ 0 and note that || T n x || 1 / n ≥ 1 k | x k | 1 / n for each n, from which it follows that T is not quasinilpotent at x.

Q T can be dense without being equal to X. For instance, the left shift S: ℓ2 → ℓ2, defined by S ( x 1 , x 2 , x 3 , … ) = ( x 2 , x 3 , … ) , has this property.

If Q T ≠ <0>and Q T ¯ ≠ X , then Q T ¯ is a non-trivial closed T-hyperinvariant subspace of X.

The above properties show that as far as the invariant subspace problem is concerned, we need only consider the two extreme cases: Q T = <0>and Q T ¯ = X .

We are now ready to state the main result about the existence of invariant subspaces of positive operators on ℓp-spaces. It implies, in particular, that if a positive operator is quasinilpotent at a non-zero positive vector, then the operator has an invariant subspace. This is an improvement of the main result in [ 6 ].

Dejar T : ℓ p → ℓ p ( 1 ≤ p < ∞ ) be a continuous operator with modulus. If there exists a non-zero positive operator S : ℓp → ℓp which is quasinilpotent at a non-zero positive vector and S|T| ≤ |T|S, then T has a non-trivial closed invariant ideal.

We do not know presently if an analogue of the previous result is true if the inequality S|T| ≤ |T|S is replaced by S|T| ≥ |T|S. However, if we assume additionally that S is quasinilpotent (rather than just being locally quasinilpotent), then such an analogue is true.

We now state several immediate consequences of the preceding results.

Assume that a positive matrix A = [aij] defines an operator on anp-space (1 ≤ p < ∞) which is locally quasinilpotent at some non-zero positive vector. If w = < w i j : i , j = 1 , 2 , … >is an arbitrary bounded double sequence of complex numbers, then the continuous operator defined by the weighted matrix A w = [ w i j a i j ] has a non-trivial closed invariant subspace. Moreover, all these operators Aw have a common non-trivial closed invariant subspace.

Proof. By Theorem 36 , the operator A has a non-trivial closed invariant ideal J. Now if B = [bij] is a matrix such that |B| ≤ cA, then from | B x | ≤ | B | ( | x | ) ≤ c A ( | x | ) it follows that BxJ for each xJ, i.e., J is B-invariant. It remains to let B = Aw.

It is worth mentioning that in the preceding corollary our assumption that the weights are bounded is not necessary. It suffices to assume only that the modulus of the matrix Aw defines an operator on ℓp.

If the modulus of a bounded operator T : ℓ p → ℓ p ( 1 ≤ p < ∞ ) exists and is locally quasinilpotent at a non-zero positive vector, then T has a non-trivial closed invariant subspace.

Every positive operator on anp-space (1 ≤ p < ∞) which is locally quasinilpotent at a non-zero positive vector has a non-trivial closed invariant subspace.

For quasinilpotent positive operators on ℓ2, Corollary 39 was also obtained in [ 48 ]. Although Theorem 36 and its corollaries are new even for a quasinilpotent operator on ℓp, their main attractiveness is due to the fact that we do not really need to know that a positive operator T : ℓp → ℓp is quasinilpotent. The only thing needed is the existence of a single vector x0 > 0 for which || T n x 0 || 1 / n → 0 . This alone implies that T has a non-trivial closed invariant subspace of a simple geometric form. In view of this, the following important question arises. How can we recognize by “looking at” a matrix [tij] defining a positive operator T : ℓp → ℓp if the set of positive vectors at which T is locally quasinilpotent is non-trivial? This question is addressed in [ 9 ].

A very interesting open problem related to Corollary 39 is whether or not each positive operator on ℓ1 has a nontrivial closed invariant subspace. Since each continuous operator on ℓ1 has a modulus (see Theorem 10 ), a natural candidate to test this problem is the modulus of any operator on ℓ1 without a nontrivial closed invariant subspace. In particular, each operator on ℓ1 without invariant subspace constructed by Read [ 115,117 ] is such a candidate. Troitsky [ 131 ] has recently managed to handle the case of the quasinilpotent operator T constructed by Read in [ 117 ]. Not only does |T| have a nontrivial closed invariant subspace, but |T| also has a positive eigenvector.

In our previous discussion, we were considering only operators on ℓp-spaces. However, we only used the discreteness of ℓp-spaces, the above results remain true for operators on arbitrary discrete Banach lattices, 3 in particular, for operators on Lorentz and Orlicz sequence spaces. For instance, the following analogue of Theorem 36 is true.

Let T : XX be a continuous operator with modulus, where X is a discrete Banach lattice. If there exists a non-zero positive operator S: XX which is locally quasinilpotent at a non-zero positive vector and S|T| ≤ |T|S (in particular this holds if S commutes with |T|), then T has a non-trivial closed invariant subspace.

Generalizing the approach developed in [ 5–7 ] for individual operators, Drnovšek [ 53 ] and Jahandideh [ 69 ] considered various collections of positive operators (for instance semigroups of operators) and proved the existence of common invariant subspaces for such collections. The main result in [ 53 ] is given next.

Let S be a (multiplicative or additive) semigroup of positive operators on a Banach lattice X. If there exists a discrete element x0X such that each operator in S is locally quasinilpotent at x0, then S has a common non-trivial closed invariant ideal.

We refer to [ 8 ] for generalizations of some of the results in this section to Banach spaces with a Schauder basis. The situation with non-discrete spaces is considerably more complicated and will be discussed in the next section.


Frobenius Splitting Methods in Geometry and Representation Theory

The theory of Frobenius splittings has made a significant impact in the study of the geometry of flag varieties and representation theory. This work, unique in book literature, systematically develops the theory and covers all its major developments.

* Concise, efficient exposition unfolds from basic introductory material on Frobenius splittings—definitions, properties and examples—to cutting edge research

* Studies in detail the geometry of Schubert varieties, their syzygies, equivariant embeddings of reductive groups, Hilbert Schemes, canonical splittings, good filtrations, among other topics

* Applies Frobenius splitting methods to algebraic geometry and various problems in representation theory

* Many examples, exercises, and open problems suggested throughout

* Comprehensive bibliography and index

This book will be an excellent resource for mathematicians and graduate students in algebraic geometry and representation theory of algebraic groups.