\documentclass[11pt,]{book} \usepackage{graphics} \usepackage{amscd} \usepackage{amssymb} \usepackage{amsmath} \usepackage{amsfonts} \usepackage{latexsym} % para \Box, \leadsto \usepackage[latin1]{inputenc} \usepackage[T1]{fontenc} %para hyphenation \usepackage[spanish]{babel} %\usepackage{lmodern} %\usepackage{garamond} \usepackage{graphicx} %\renewcommand{\chaptername}{Cap\'{\i}tulo} %\renewcommand{\contentsname}{Contenido} %\renewcommand{\listfigurename}{Lista de Figuras} %\renewcommand{\listtablename}{Lista de Tablas} %\renewcommand{\bibname}{Bibliograf\'{\i}a} %\renewcommand{\indexname}{\'Indice} %\renewcommand{\figurename}{Figura} %\renewcommand{\tablename}{Tabla} %\renewcommand{\partname}{Parte} %\renewcommand{\appendixname}{Apéndice} %\renewcommand{\today}{\ifcase\month\or Enero\or Febrero\or Marzo\or %Abril\or Junio\or Julio\or Augosto\or Septiembre\or Octubre\or %Noviembre\or Diciembre\fi} \input{tcilatex} %\input{macrote} %\newtheorem{theorem}{Teorema}[section] % Numbered within each section %\newtheorem{corollary}[theorem]{Corolario} % Numbered along with thm %\newtheorem{lemma}[theorem]{Lema} % Numbered along with thm %\newtheorem{proposition}[theorem]{Proposici\'on}% Numbered along with thm %\newtheorem{conjecture}[theorem]{Conjetura} % Numbered along with thm %\newtheorem{remark}[theorem]{Observaci\'on} %\newtheorem{definition}[theorem]{Definici\'on} %\newtheorem{example}[theorem]{Ejemplo} \newtheorem{examples}[theorem]{Ejemplos} %\newtheorem{axiom}[theorem]{Axioma} %\newtheorem{exercise}{Ejercicio}[section] \newtheorem{exercises}{Ejercicios}[section] \newtheorem{terminology}{Terminolog\'{\i}a} \newtheorem{ura}{\bf Figura}[section] \newtheorem{dfn}{Definici\'on}[section] \newtheorem{pro}{Propiedad}[section] \newtheorem{coro}{Corolario}[section] \newtheorem{teor}{Teorema}[section] \newtheorem{prop}{Proposici\'on}[section] \newtheorem{obse}{Observaci\'on}[section] \newtheorem{lema}{Lema}[section] \newtheorem{ejer}{Ejercicio}[section] \newtheorem{ejem}{Ejemplo}[section] \newtheorem{test}{Test}[section] %\newcommand{\mathbf}[1]{\mbox{\boldmath $ #1 $}} \newcommand{\dive}{{\mathord {\rm div}}} % Divergencia \newcommand{\rot}{{\mathord {\rm rot}}} % Rotacional \newcommand{\tra}{{\mathord {\rm tr}}} % Traza \newcommand{\gra}{{\mathord {\rm grad}}} % Gradiente \newcommand{\bfin}{\ \ \ \ \rule[-10pt]{6pt}{6pt}} \newcommand{\wfin}{\ \ \ \ $ _{_{{\textstyle \Box} }} $} \newcommand{\blanco}{\ \ \ \ _{_{{\textstyle \Box} }} } \newcommand{\dem}{{\bf Demostraci\'on: }} \newcommand{\R}{I\! \! R} \newcommand{\N}{I\! \! N} %\newcommand{\dis}{\displaystyle} \newcommand{\deri}[2]{ \frac{ \partial #1 }{ \partial #2 } } % uso \deri{f}{y} \newcommand{\dderi}[2]{ \frac{ {\partial}^2 #1 }{ \partial {#2}^2 } } % uso \dderi{f}{x_i} \newcommand{\mdderi}[2]{ \frac{ {\partial}^2 #1 }{ \partial {#1} \partial {#1} } } % uso \mdderi{f}{x}{y} \newcommand{\bfm}[1]{\mbox{\boldmath $ #1 $}} \newcommand{\tr}{\int\!\!\!\!\int\!\!\!\!\int } \newcommand{\db}{\int\!\!\!\!\int } \newcommand{\G}{\mathbb{G}} %\newcommand{\N}{\mathbb{N}} \newcommand{\Z}{\mathbb{Z}} \newcommand{\Q}{\mathbb{Q}} %\newcommand{\R}{\mathbb{R}} \newcommand{\C}{\mathbb{C}} \newcommand{\K}{\mathbb{K}} \newcommand{\?}{\textquestiondown} %\newcommand{\proof}{\paragraph{Demostraci\'on}} %\newcommand{\qed}{\hspace*{\fill}\Box\\} \newcommand{\dis}{\displaystyle} \newcommand{\es}{\vspace*{0.4cm}} \newcommand{\be}{\begin{equation}} \newcommand{\ee}{\end{equation}} \newcommand{\ben}{\begin{enumerate}} \newcommand{\een}{\end{enumerate}} \newcommand{\bit}{\begin{itemize}} \newcommand{\enitem}{\end{itemize}} \newcommand{\beq}{\begin{eqnarray}} \newcommand{\eeq}{\end{eqnarray}} \newcommand{\beqsin}{\begin{eqnarray*}} \newcommand{\eeqsin}{\end{eqnarray*}} \newcommand{\beteor}{\begin{teor}} \newcommand{\enteor}{\end{teor}} %\newcommand{\befigura}{\begin{ura}} %\newcommand{\enfigura}{\end{ura}} \newcommand{\becoro}{\begin{coro}} \newcommand{\encoro}{\end{coro}} \newcommand{\beobse}{\begin{obse}} \newcommand{\enobse}{\end{obse}} \newcommand{\beprop}{\begin{prop}} \newcommand{\enprop}{\end{prop}} \newcommand{\bejer}{\begin{ejer}} \newcommand{\enejer}{\end{ejer}} \newcommand{\bejem}{\begin{ejem}} \newcommand{\enejem}{\end{ejem}} \newcommand{\bt}{\begin{test}} \newcommand{\et}{\end{test}} %\newcommand{\befig}{\begin{figure}} %\newcommand{\enfig}{\end{figure}} \newcommand{\no}{\noindent} \pagestyle{plain} \setlength{\textwidth}{13cm} \setlength{\textheight}{20cm} %\setlength{\leftmargin}{0cm} %\setlength{\rightmargin}{0cm} %\setlength{\oddsidemargin}{0cm} %\setlength{\evensidemargin}{0cm} \begin{document} %\pagenumbering{none} %\newpage %\thispagestyle{empty} \mbox{} %\newpage %\thispagestyle{empty} \mbox{} \begin{titlepage} %\raggedright \centering{\includegraphics[width=0.2\textwidth]{URJC-Logo-PNG-1.eps}\par} \vspace{1.5cm} %\raggedleft \begin{center} {\bfseries\Large APUNTES DE TEOR\'IA\par} \vspace{0.5cm} {\bfseries\Large M\'ETODOS MATEM\'ATICOS APLICADOS A LA \par} \vspace{0.5cm} {\bfseries\Large INGENIER\'IA\par} \vspace{1.5cm} {\scshape \large M\'etodos matem\'aticos aplicados a la Ingenier\'{\i}a de Materiales \par} \vspace{0.5cm} {\scshape \large M\'etodos matem\'aticos aplicados a la Ingenier\'{\i}a de la Energ\'{\i}a \par} \vspace{0.5cm} {\scshape \large M\'etodos num\'ericos (m\'odulo I) en el M\'aster en Ingenier\'{\i}a Industrial \par} \vspace{0.5cm} %{\scshape\Large PARA M\'ASTER Y GRADOS EN INGENIER\'IA \par} \vspace{2cm} %{\itshape\Large M\'etodos Matem\'aticos aplicados a la %Ingenier\'{\i}a \par} %\vfill {\Large Autores: \par} {\Large E. Schiavi, A. I. Mu\~noz Montalvo, C. Conde\par} {\Large Septiembre 2022 \par}\vspace{1cm} {\large{\copyright 2022. Autores: E. Schiavi, A. I. Mu\~noz Montalvo, C. Conde.\\ Algunos derechos reservados.\\ Este documento se distribuye bajo la licencia internacional Creative Commons Attribution-ShareAlike 4.0 International License.\\ Disponible en: http://creativecommons.org/licenses/by-sa/4.0/}}\vspace{0.5cm} {\large{Publicado en: https://burjcdigital.urjc.es}} \end{center} \end{titlepage} %\tableofcontents %\newpage %\thispagestyle{empty} \mbox{} %\newpage %\thispagestyle{empty} \mbox{} {\bf M\'{E}TODOS %MATEM{\'A}TICOS\\PARA LOS GRADOS EN INGENIER\'IA\\ %PRIMERA PARTE: \\TEOR\'IA}\\\vspace{0.27in} %E. Schiavi, A. I. Mu\~noz y C. Conde.\\ % \\ %Universidad Rey Juan Carlos} %\dedication{\centering} %\date{This work is licensed under the Creative %Commons Attribution-ShareAlike 4.0 International License. To view %a copy of this license, visit %http://creativecommons.org/licenses/by-sa/4.0/ or send a letter to %Creative Commons, PO Box 1866, Mountain View, CA 94042, USA.} %\newpage %\thispagestyle{empty} \mbox{}} %\author{} %\maketitle \pagenumbering{arabic} %\input{acknowledgements} \tableofcontents %\listoffigures %\listoftables %\newpage %\thispagestyle{empty} \mbox{} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% %\pagenumbering{arabic} %\include{prol} %\include{intr} \chapter{Introducci\'on a las ecuaciones en derivadas parciales} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\include{aCap11}% \section{Generalidades.} Todas las operaciones b\'asicas, f\'{\i}sicas y qu\'{\i}micas de la Ingenier\'{\i}a Qu\'{\i}mica, implican el transporte de una o varias de las tres magnitudes fundamentales siguientes: cantidad de movimiento, energ\'{\i}a y materia. Estos fen\'omenos de transporte se producen en el seno de los fluidos o entre s\'olidos y fluidos, bien como consecuencia de las diferencias de concentraciones de dichas magnitudes en aquellos (representando la tendencia de todos los sistemas a alcanzar el equilibrio) bien como consecuencia del movimiento de los propios fluidos. Para poder dise\~nar adecuadamente los equipos e instalaciones donde hayan de de\-sa\-rro\-lla\-rse las operaciones indicadas, se requiere una informaci\'on precisa sobre los caudales de transporte de las citadas magnitudes f\'{\i}sicas\footnote{% Los tres fen\'omenos de transporte se producen casi siempre simult\'aneamente en todas las operaciones b\'asicas, tanto f\'{\i}sicas como qu\'{\i}micas, pero la importancia relativa de los mismos var\'{\i}a en cada caso, siendo frecuente que s\'olo uno de ellos, por su mayor lentitud, determine el tama\~no del equipo necesario para el desarrollo de dichas operaciones. V\'ease el libro de Costa Novella, Vol 2 (Fen\'omenos de transporte).}. El an\'alisis de los fen\'omenos de transporte nos conduce \emph{naturalmente} a la consideraci\'on de las ecuaciones de conservaci\'on de la masa (ecuaci\'on de continuidad), de la cantidad de movimiento (ecuaci\'on del equilibrio) y de la energ\'{\i}a. Tales ecuaciones suelen ser de un tipo determinado, llamado ecuaciones en derivadas parciales o, m\'as brevemente, EDP\footnote{% Usaremos indistintamente la sigla EDP para indicar una ecuaci\'on en derivadas parciales o un conjunto de ecuaciones en derivadas parciales.}. \es En este curso desarrollaremos las t\'ecnicas matem\'aticas b\'asicas que permiten abordar tales problemas desde los puntos de vista anal\'{\i}tico (exacto) y num\'erico (aproximado). Tras haber introducido la notaci\'on y definiciones b\'asicas para los sucesivos tratamientos, y puesto que en el an\'alisis del flujo (transporte) de fluidos (l\'{\i}quidos o gases) las ecuaciones del movimiento (vectorial), continuidad (escalar) y energ\'{\i}a (escalar) se pueden combinar en una \'unica ecuaci\'on vectorial de conservaci\'on (v\'ease la secci\'on dedicada a los sistemas hiperb\'olicos de leyes de conservaci\'on) empezaremos este tema con el an\'alisis de las ecuaciones hiperb\'olicas cuasilineales de primer orden lo que nos permitir\'a, mediante la interpretaci\'on din\'amica (en t\'erminos de la mec\'anica de fluidos) del proceso de resoluci\'on, entrar r\'apidamente en materia relacionando los fen\'omenos f\'{\i}sicos y su formulaci\'on matem\'atica rigurosa, adquirir una cierta soltura en el manejo de los operadores de derivaci\'on parcial, introducir el concepto de caracter\'{\i}sticas, ver su aplicaci\'on e interpretaci\'on geom\'etrica, fa\-mi\-lia\-ri\-zar\-nos con los problemas de valor inicial (PVI) y los problemas de valor inicial y de contorno (PVIC) entendidos como procedimientos para seleccionar entre las infinitas soluciones posibles de una EDP aquella con sentido f\'{\i}sico\footnote{% No nos referimos aqu\'{\i} a las soluciones de entrop\'{\i}a, para las cuales se necesitan fundamentos matem\'aticos muy avanzados sino a la b\'usqueda de soluciones que cumplan unas condiciones de contorno y/o iniciales obtenidas mediante experimentos y mediciones.}. Digamos que relacionaremos r\'apidamente las t\'ecnicas matem\'aticas con la problem\'atica f\'{\i}sico-qu\'{\i}mica a estudiar creando un v\'{\i}nculo entre nuestra asignatura y las asignaturas del \'area f\'{\i}sico-qu\'{\i}mica donde el formalismo matem\'atico es conveniente y, a veces, necesario. \subsection{Notaci\'on y Conceptos fundamentales. Ejemplos} Siguiendo la notaci\'on introducida en el curso de Elementos de Matem\'aticas, denotaremos las derivadas parciales de una funci\'on de varias variables, digamos $u(x,t)$, en las formas \[ \dis u_x = \deri{u}{x},\qquad u_{xx}=\dderi{u}{x},\qquad u_{xt}=\frac{% \partial^2 u}{\partial x\partial t},\qquad u_t =\deri{u}{t}. \] Utilizaremos indistintamente ambos tipos de notaci\'on aunque observamos que al trabajar con campos de velocidades (que aparecen en los problemas de fluidodin\'amica) la notaci\'on con el sub\'{\i}ndice puede generar algo de confusi\'on y no es recomendada. En los libros de texto se suele, en efecto, denotar $\bfm{v}= (v_x ,v_y ,v_z )$ donde $v_x$ indica la componente ho\-ri\-zon\-tal de la velocidad y no su derivada parcial. En este caso es conveniente utilizar la notaci\'on extendida de operadores $\partial /\partial x$ pues, de lo contrario, al calcular la aceleraci\'on de una part\'{\i}cula en un campo de fuerzas tendr\'{\i}amos $\dis a = v_{x_x}$ lo que resultar\'{\i}a bastante incomprensible. Una notaci\'on alternativa, suficientemente clara, ser\'{\i}a $a=(v_x)_x$. Pasamos ahora a describir las regiones del espacio donde ha de satisfacerse una EDP. Denotaremos por $% \Omega \subset\R^n$, $n=1,2,3$ (ocasionalmente se utilizar\'a la letra $N$ para indicar la dimensi\'on espacial) a una regi\'on (dominio) abierta del espacio $n$-dimensional, que eventualmente podr\'a ser infinita (no acotada) y coincidente con todo el espacio: $\Omega \equiv \R^n$. El s\'{\i}mbolo $% \equiv$ denota igualdad entre conjuntos. Tambi\'en se usa para indicar que una funci\'on es, por ejemplo, id\'enticamente nula en una regi\'on, en la forma $f\equiv 0$. El s\'{\i}mbolo $\doteq $ denotar\'a igualdad \emph{por definici\'on} y es el an\'alogo del operador de asignaci\'on $:=$ que aparece en muchos programas inform\'aticos (por ejemplo en Maple). \es Si $\Omega$ es una regi\'on acotada\footnote{% Recu\'erdese que la condici\'on necesaria y suficiente para que un conjunto est\'e acotado es que exista una bola cerrada que lo contenga. V\'ease el tema 7 de los guiones del primer curso.} entonces su frontera, denotada por $% \partial \Omega$, se supondr\'a suficientemente regular para que el an\'alisis posterior tenga validez \footnote{% Puede parecer excesivo todo este tipo de precisiones sobre el dominio y su frontera pero es conveniente observar que muchos resultados y t\'ecnicas de an\'alisis matem\'atico est\'an condicionados a la geometr\'{\i}a del dominio en consideraci\'on. Su frontera tiene tambi\'en un papel fundamental y la teor\'{\i}a de trazas que aparece en el c\'alculo variacional lo confirma. Para la definici\'on exacta y una clasificaci\'on muy rigurosa de los dominios dependiendo de su frontera se puede consultar el libro de Adams (v\'ease la referencia en la secci\'on final de este cap\'{\i}tulo dedicada a la bibliograf\'{\i}a avanzada).}. En general la condici\'on de regularidad que pediremos ser\'a la existencia de un vector normal en todo punto de $% \partial \Omega$. Denotaremos adem\'as por $\bar{\Omega}=\Omega \cup \partial\Omega$ al cierre del dominio $\Omega$. Cuando una de las variables independientes re\-pre\-sen\-ta el tiempo se suele introducir otra notaci\'on (y nomenclatura) que utilizaremos al trabajar con problemas de evoluci\'on (es decir donde el estado del sistema evoluciona con el tiempo). \es Otras notaciones t\'{\i}picas, del tipo $(x_1 ,x_2 )=(x,y)$ y $(x_1 ,x_2 ,x_3 )=(x,y,z)$ (para denotar puntos del plano o del espacio en coordenadas cartesianas) o $\bfm{F}$, $\vec{v}$ (para denotar vectores) y $[A]$ para denotar matrices, ser\'an tambi\'en utilizadas. \subsubsection*{Conceptos y definiciones} Entramos ahora en materia considerando la definici\'on general de una ecuaci\'on en derivadas parciales. \begin{dfn} Se llama ecuaci\'on diferencial en derivadas parciales a una ecuaci\'on de la forma: \begin{equation}\label{genedp} F\left( x_1 ,x_2 ,... ,x_n , u,\deri{u}{x_1} ,...,\deri{u}{x_n},....., \frac{\partial^m u}{\partial x_1^{k_1} \partial x_2^{k_2} ... \partial x_n^{k_n}}\right)=0, \end{equation} que relaciona las variables independientes $x_1 ,x_2 ,..x_n $ ($n>1$), la variable dependiente $u=u(x_1 ,x_2 ,...,x_n )$ y sus derivadas parciales hasta el orden $m$, siendo $m$ un n\'umero entero tal que $m\geq 1$. Los super\'{\i}ndices $k_1 ,k_2 ,..,k_n $ son n\'umeros enteros no negativos tales que $k_1 +k_2 + ... +k_n =m$. \end{dfn} \bejem T\'{\i}picos ejemplos de ecuaciones diferenciales en derivadas parciales pueden ser: \[ \dis 1)\quad u_{xx}+u_{yy} =0, \quad \dis 2)\quad u_{t}=\alpha^2 u_{xx},\quad 3)\quad u_{tt}=-\beta^2 u_{xxxx} ,\quad 4)\quad u_t =i \beta u_{xx}, \] (siendo $\alpha$, $\beta$ constantes reales e $i$ la unidad imaginaria). Tambi\'en: \[ 5)\quad u_{xx}+u_{yy} +\alpha^2 u =0,\qquad 6)\quad u_t +\alpha uu_x +\beta u_{xxx} =0,\qquad 7)\quad u_{xx}+xu_{yy}=0 \] \enejem En todos los casos se trata de ecuaciones en derivadas parciales \emph{% famosas} que suelen llevar el nombre de su descubridor. En concreto se trata de la ecuaci\'on de Laplace (1), de la ecuaci\'on de Fourier (2), de la ecuaci\'on de Euler-Bernoulli (3), de la ecuaci\'on de Schrodinger (4), de la ecuaci\'on de Helmholtz (5), de la ecuaci\'on de Korteweg-de Vries (6) y de la ecuaci\'on de Tricomi (7). Aparecen en numerosos problemas de la f\'{\i}sica matem\'atica. Algunas de ellas las aprenderemos a conocer a lo largo del curso; otras, distintas, las iremos descubriendo al entrar m\'as en materia. \es Precisaremos ahora lo que se entiende por orden de una EDP (puesto que en los ejemplos anteriores han aparecido diferentes \'ordenes de derivaci\'on parcial en la misma ecuaci\'on). N\'otese que se trata de una extensi\'on directa de la definici\'on an\'aloga de orden de una EDO. \begin{dfn} Se llama orden de una ecuaci\'on diferencial del tipo (\ref{genedp}) al mayor de los \'ordenes de las derivadas parciales que aparecen en la ecuaci\'on. \end{dfn} Las 7 ecuaciones propuestas en el ejemplo son (respect.) de orden 2,2,4,2 y 2,3,2. Una EDP t\'{\i}pica de primer orden es la ecuaci\'on de advecci\'on% \footnote{% Originariamente el t\'ermino advecci\'on se utilizaba para los fen\'omenos de transporte de masas de aire y se extendi\'o despu\'es su uso al transporte gen\'erico de materia reserv\'andose el t\'ermino de convecci\'on para el transporte de energ\'{\i}a. Actualmente se suele abarcar todos estos fen\'omenos de transporte con el t\'ermino de convecci\'on.} (o convecci\'on): \[ u_t +a u_x =0, \] que ser\'a analizada m\'as adelante. \es Cuando se consideran varias EDP simult\'aneamente se generan sistemas de ecuaciones en derivadas parciales. Excepto unos pocos casos concretos es extremadamente dif\'{\i}cil el estudio de tales sistemas, especialmente si se consideran ecuaciones de distinta naturaleza\footnote{% V\'ease la secci\'on referente a la clasificaci\'on de las ecuaciones en derivadas parciales en el\'{\i}pticas, parab\'olicas e hiperb\'olicas.}. Un caso especial lo constituyen los sistemas de EDP de primer orden. Bajo ciertas hip\'otesis existe una teor\'{\i}a anal\'{\i}tica y un tratamiento num\'erico de estos sistemas que aparecen, a menudo, trabajando con fen\'omenos de transporte. Veamos por ejemplo el sistema que modeliza la propagaci\'on de una peque\~na perturbaci\'on en un gas (una onda sonora). Se trata de un modelo matem\'atico para la propagaci\'on del sonido. \bejem\label{gas} El movimiento unidimensional de un gas, cuya viscosidad es inapreciable, se describe mediante: \[ \left\{ \begin{array}{rcl} \dis \rho \deri{u}{x}+u \deri{\rho}{x}+\deri{\rho}{t} & = & 0, \\[0.3cm] \noalign{\smallskip} \dis \rho \deri{u}{t}+\rho u \deri{u}{x}+\deri{p}{x} & = & \rho F, \end{array} \right. \] donde $u(x,t)$ es la velocidad en el punto $x$ y en el tiempo $t$, $\rho (x,t)$ es la densidad de masa, $p(x,t)$ es la presi\'on y $F(x,t)$ es una fuerza dada por unidad de masa. La primera de estas ecuaciones expresa la conservaci\'on de la masa; la otra es la segunda ley de Newton del movimiento. \enejem \es Consideremos nuevamente la ecuaci\'on diferencial en derivadas parciales (% \ref{genedp}) de orden $m$. La ecuaci\'on estar\'a planteada (en el sentido de que se tiene que satisfacer) en una regi\'on abierta (eventualmente infinita) de $\R^n$, digamos $\Omega\subset\R^n$, $n\geq 2$. Denotamos adem\'as por $C^m (\Omega)$ al conjunto de funciones continuas con derivadas continuas hasta el orden $m$ en la regi\'on $\Omega$. %N\'otese que $C^m (\Omega)$ es %un espacio de Banach (espacio vectorial infinito dimensional normado %y completo\footnote{V\'ease el tema 7 de la asignatura del primer curso para %detalles sobre este tipo de terminolog\'{\i}a.}). Para $m=1$ se tiene el espacio $C^1 (\Omega )$ de funciones continuamente diferenciables (o diferenciables con continuidad). \es Introducida la definici\'on de ecuaci\'on en derivadas parciales y caracterizado el orden de la misma, veamos lo que se entiende por soluci\'on de una EDP. \begin{dfn}\label{clasi} Se llama soluci\'on de una ecuaci\'on diferencial de orden $m$ del tipo (\ref{genedp}) en cierta regi\'on abierta $\Omega\subset \R^n$ de variaci\'on de las variables independientes $x_1 ,x_2 ,..,x_n$ a una funci\'on $$ u=u(x_1 ,x_2 ,...,x_n )\in C^m (\Omega), $$ tal que sustituyendo esta funci\'on y sus derivadas en la ecuaci\'on (\ref{genedp}) se obtiene una identidad. \end{dfn} \beobse En la definici\'on anterior no se especifica la regularidad de la soluci\'on en la frontera $\partial\Omega$ de la regi\'on (abierta) $\Omega$. Lo que generalmente se pide es que la funci\'on sea continua o diferenciable en $% \partial \Omega$, que admita todas las derivadas parciales que aparecen en la ecuaci\'on en el interior de $\Omega$ (que es lo mismo que $\Omega$ pues es una regi\'on abierta por hip\'otesis) y que se satisfaga la ecuaci\'on en el interior de $\Omega$. \enobse \beobse La definici\'on anterior caracteriza las soluciones de una EDP de orden $m$ como aquellas funciones de clase $C^m (\Omega )$ que satisfacen la ecuaci\'on en todo punto de $\Omega \subset\R^n$, $n=1,2,3$. A este tipo de soluciones se les suele llamar \textbf{soluciones cl\'asicas} pues son soluciones (en el sentido de que es posible realizar las operaciones de derivaci\'on parcial que aparecen en la ecuaci\'on alcanzando una identidad) y son cl\'asicas pues esta identidad se tiene en todo punto de la regi\'on $% \Omega$. Este tipo de soluciones son las que han sido objeto de estudio a partir de los primeros trabajos de Fourier, Laplace, Liouville, etc... En realidad es posible demostrar la existencia de un tipo de soluciones, llamadas \textbf{soluciones d\'ebiles}, que satisfacen la ecuaci\'on (o una versi\'on modificada de la misma \footnote{% Se est\'a hablando aqu\'{\i} de las ecuaciones en forma de divergencia a las cuales son aplicables las t\'ecnicas del c\'alculo variacional. Para ello es b\'asica la teor\'{\i}a de distribuciones de L. Schwartz en la que no profundizaremos en este curso.}) no en todo punto del dominio sino en una parte digamos \emph{significativa} (en casi\footnote{% Es fundamental aqu\'{\i} el concepto de conjunto de medida cero que aparece en la teor\'{\i}a de la medida de Lebesgue.} %paramem Es conveniente mencionar su existencia e introducirlo intuitivamente.} todo punto). No entraremos en detalles sobre la teor\'{\i}a (la Teor\'{\i}a de Distribuciones de L. Schwartz) que justifica este tipo de an\'alisis (conocido como an\'alisis funcional) pero avisamos al lector de la existencia de este tipo de soluciones que han sido y son actualmente objeto de atento estudio e investigaci\'on. Varios ejemplos de soluciones d\'ebiles se encontrar\'an al final de la parte de este tema dedicada a las ecuaciones en derivadas parciales de primer orden donde consideraremos unos problemas de Cauchy con ecuaciones de tipo lineal o cuasilineal\footnote{% M\'as adelante daremos definiciones precisas de todo este tipo de terminolog\'{\i}a.} cuya soluci\'on no es de clase $C^1 (\Omega )$ (y no es, por tanto, una soluci\'on cl\'asica en el sentido de la definici\'on (\ref {clasi}) sino d\'ebil). Veremos c\'omo la prescripci\'on de datos iniciales discontinuos o cuya derivada es discontinua puede generar soluciones discontinuas. \enobse \es Como ya se ha se\~nalado en la introducci\'on se llaman \emph{ecuaciones diferenciales en derivadas parciales} a aqu\'ellas ecuaciones en las que las funciones desconocidas dependen de m\'as de una variable independiente y aparecen operadores de derivaci\'on parcial. El proceso de resoluci\'on de una EDP se llama tambi\'en \textbf{integraci\'on} de la EDP. En algunos casos la re\-so\-lu\-ci\'on de la ecuaci\'on en derivadas parciales es directa entendiendo por ello que se realiza mediante una integraci\'on directa. Recordemos, para ello, las f\'ormulas de integraci\'on para derivadas parciales que vienen dadas por \[ \dis \int \dis\deri{f(x,y)}{x}dx =f(x,y) +\phi (y),\qquad \dis \int \dis% \deri{f(x,y)}{y}dx =f(x,y) +\psi (x), \] siendo $\phi (y)$, $\psi (x)$ funciones derivables arbitrarias. Las f\'ormulas anteriores se aplican en la integraci\'on indefinida. Por ejemplo, si conocemos la derivada parcial primera de una funci\'on, digamos $% f_x (x,y)=2xy$, entonces considerando $y$ como constante e integrando en $x$ se tiene: \[ %\dis \int \dis\deri{f(x,y)}{x}dx = \dis \int 2xy dx =2y\int x dx =yx^2 +\phi (y), \] luego $f(x,y)=yx^2 +\phi (y)$. N\'otese que cualquier funci\'on del tipo $% f(x,y)=yx^2 +\phi (y)$ satisface $f_x =2xy$, independientemente de la funci\'on $\phi$ elegida. Es una gene\-ra\-li\-za\-ci\'on del concepto de primitivas para funciones de una variable real. \es Para la integraci\'on definida (es decir especificando los extremos de integraci\'on) se tiene: \[ \dis \int_{h_1 (y)}^{h_2 (y)}\dis\deri{f(x,y)}{x}dx =[f(x,y)+\phi (y) \dis % ]_{x=h_1 (y)}^{x=h_2 (y)} =f(h_2 (y),y)-f(h_1 (y),y). \] Por ejemplo, si $h_1 (y)=1$, $h_2 (y)=2y$ la integraci\'on definida de $f_x (x,y)=2xy$ nos dar\'a: \[ \dis \int_1^{2y} 2xy dx =y\int_1^{2y} 2x dx =[yx^2 +\phi \dis (y)]_{x=1}^{x=2y} = 4y^3 -y =f(2y ,y)-f(1,y), \] siendo $f(x,y)= yx^2 +\phi (y)$. Es una generalizaci\'on de la Regla de Barrow para funciones de una variable. De forma an\'aloga se tiene la f\'ormula: \[ \dis \int_{g_1 (x)}^{g_2 (x)}\dis\deri{f(x,y)}{y}dy =[f(x,y)+\psi (x) ]_{g_1 (x)}^{g_2 (x)} =f(x,g_2 (x))-f(x,g_1 (x)). \] N\'otese que la variable de integraci\'on no puede aparecer en los l\'{\i}mites de integraci\'on. Por ejemplo, no tiene sentido escribir $\dis % \int_0^x y dx$. Simplemente se introduce una variable \emph{muda} en la forma $\dis \int_0^x y ds$ lo que indica claramente que el resultado de la integraci\'on es una funci\'on de $x$ (el extremo superior del intervalo de integraci\'on) \es Podemos ahora considerar el siguiente ejemplo: \bejem\label{ejp1} Resolver la ecuaci\'on: \[ \dis \deri{u}{x}(x,y)=y+x. \] \enejem Se trata evidentemente de una EDP de primer orden que es del tipo (\ref {genedp}) para los valores param\'etricos $m=1$, $n=2$, $k_1 =1$, $k_2 =0$ y la notaci\'on $(x_1 ,x_2 )=(x,y)$. Buscamos una soluci\'on del tipo $% z=u(x,y) $ (dependiente de dos variables) que sea de clase $C^1$. Integrando directamente (y de manera indefinida) respecto a $x$, obtenemos: \[ u(x,y)=xy+\dis \frac{x^2}{2}+\phi (y), \] donde $\phi (y)$ es una funci\'on derivable arbitraria de $y$. Para cada elecci\'on concreta de $\phi (y)$ tendremos una \'unica soluci\'on, es decir una funci\'on $u=z(x,y)$ tal que $u_x =y+x$. Por ser $\phi (y)$ arbitraria hemos obtenido infinitas soluciones de la EDP que dependen de \emph{una} funci\'on arbitraria. La expresi\'on anterior es por tanto la \textbf{soluci\'on general} de la EDP en cuesti\'on. N\'otese que la gr\'afica de una soluci\'on del tipo $z=u(x,y)$ es una superficie. En el caso bidimensional, las superficies que son soluciones de una EDP de primer orden se llamar\'an \textbf{superficies integrales} de la EDP. Matizaremos este concepto en la secci\'on dedicada a la interpretaci\'on geom\'etrica del proceso de resoluci\'on de una EDP de primer orden. \es \bejem\label{ejp2} Resolver la ecuaci\'on: \[ \dis \frac{\partial^2 u}{\partial x\partial y}(x,y) =0. \] \enejem Se trata de una EDP de segundo orden que es del tipo (\ref{genedp}) para los valores param\'etricos $m=2$, $n=2$, $k_1 =1$, $k_2 =1$ y la notaci\'on $% (x_1 ,x_2 )=(x,y)$. Buscamos una soluci\'on del tipo $z=u(x,y)$ que sea de clase $C^2$. Integrando respecto a $x$, obtenemos: \[ \dis \deri{u}{y}(x,y) =\phi (y), \] donde $\phi (y)$ es una funci\'on (continua) arbitraria de $y$. Integrando ahora respecto a $y$ se obtiene: \[ u (x,y)=\dis \int \phi (y)dy +\phi_1 (x), \] donde $\phi_1 (x)$ es una funci\'on (derivable) arbitraria de $x$. O bien, designando \[ \dis \int \phi (y)dy =\phi_2 (y) \] a una primitiva de $\phi (y)$, tendremos finalmente \[ u(x,y)=\phi_1 (x)+\phi_2 (y), \] donde $\phi_2 (y)$, en virtud de la arbitrariedad (y continuidad) de $\phi (y)$, es tambi\'en una funci\'on arbitraria (y derivable) de $y$. \es Los ejemplos expuestos sugieren por tanto que la soluci\'on general de una ecuaci\'on en derivadas parciales de primer orden depende de una funci\'on arbitraria; la soluci\'on general de una ecuaci\'on en derivada parciales de segundo orden depende de dos funciones arbitrarias, y la soluci\'on general de una ecuaci\'on en derivada parciales de orden $p$ probablemente depender\'a de $p$ funciones arbitrarias. Estas consideraciones son ciertas, pero deben ser precisadas. De ello se ocupa el teorema de S.V. Koval\'eskaia (1850-1891) sobre la existencia y unicidad de la soluci\'on del problema de Cauchy asociado a una ecuaci\'on en derivadas parciales. Las hip\'otesis y el enunciado del teorema de Sofya Koval\'eskaia \footnote{% V\'ease, por ejemplo el libro de Fritz John, Partial Differential Equations, pag 61, donde se presenta el teorema bajo el nombre de teorema de Cauchy-Koval\'eskaia.} desbordan los objetivos de este curso (pues exigen la aplicaci\'on del concepto de derivada para funciones de variable compleja y de la teor\'{\i}a de las funciones anal\'{\i}ticas \footnote{% La condici\'on de analiticidad de una funci\'on en un punto introduce una restricci\'on muy fuerte a una funci\'on. Implica en efecto la existencia de todas las derivadas de orden superior en un entorno del punto y esto garantiza la existencia de una serie de potencias convergente que representa la funci\'on en un entorno del punto. Esto est\'a en marcado contraste con el comportamiento de las funciones reales, para las que es posible que exista la derivada primera y que sea continua sin que por ello se pueda deducir la existencia de la derivada segunda. Las funciones anal\'{\i}ticas tienen un papel muy importante en la resoluci\'on de problemas de flujos bidimensionales a trav\'es de la funci\'on de corriente. Una introducci\'on bastante sencilla a la teor\'{\i}a de las funciones anal\'{\i}ticas se puede encontrar en el libro de Apostol, T.M., (1982), An\'alisis matem\'atico. Segunda ed. Editorial Revert\'e. cap\'{\i}tulo 16. Resultados matem\'aticos avanzados se encuentran en el cap\'{\i}tulo 3 del libro de F. John. Una aplicaci\'on a los problemas de fluidodin\'amica se encuentra en el cap\'{\i}tulo 2, Vol 5 del libro de Costa Novella dedicado al flujo potencial de un fluido perfecto (o ideal). Nosotros introduciremos paulatinamente este tipo de problemas mediante un ejemplo concreto de flujo potencial que analizaremos seg\'un se vayan desarrollando las t\'ecnicas matem\'aticas necesarias para su tratamiento (y comprensi\'on). Una introducci\'on muy interesante al uso de la funci\'on de corriente en la resoluci\'on de problemas de flujos incompresibles (l\'{\i}quidos) que aparecen en mec\'anica de fluidos en el caso bidimensional se encuentra en el libro de W. Deen, Analysis of Transport Phenomena, cap\'{\i}tulo 5, secci\'on 5.9, pag 239. Aplicaciones avanzadas de la teor\'{\i}a se encuentran en los cap\'{\i}tulos 7 y 8 del mismo libro.}) y no ser\'an considerados. Alternativamente desarrollaremos un an\'alisis local del problema de Cauchy asociado a ecuaciones en derivadas parciales de primer orden que nos proporcionar\'a los resultados te\'oricos de existencia y unicidad de soluciones del problema considerado. \es En este tema estudiaremos brevemente s\'olo los m\'etodos de integraci\'on (resoluci\'on) de las ecuaciones en derivadas parciales de primer orden, cuya teor\'{\i}a est\'a estrechamente ligada a la integraci\'on de ciertos sistemas de ecuaciones ordinarias. Las ecuaciones en derivadas parciales de orden mayor se integran por m\'etodos completamente distintos\footnote{% En realidad en los temas 2 y 3 presentaremos algunos m\'etodos de resoluci\'on de EDP de segundo orden que se pueden aplicar tambi\'en a ecuaciones de primer orden. Nos referimos por ejemplo al m\'etodo de separaci\'on de variables o al m\'etodo de la transformada de Laplace.} y ser\'an tratadas (en el caso de las ecuaciones de segundo orden) en los temas siguientes (temas 2 y 3). La resoluci\'on num\'erica de las ecuaciones en derivadas parciales de primer y segundo orden se considerar\'a en el tema 6. \es Finalizamos esta secci\'on resolviendo un problema muy b\'asico y com\'un de la teor\'{\i}a de campos que aparece en fluidodin\'amica: la determinaci\'on de la funci\'on de corriente asociada a un campo de velocidades bidimensional irrotacional. Calcularemos tambi\'en el potencial del campo resolviendo as\'{\i} el problema de la determinaci\'on de las l\'{\i}neas equipotenciales de un campo escalar de $\R^2$ planteado en el tema 12, secci\'on 12.1.4 del gui\'on de la asignatura del primer curso dedicado a la Teor\'{\i}a de Campos. Mediante el conocimiento de las l\'{\i}neas de corriente y de las l\'{\i}neas equipotenciales analizaremos algunas propiedades geom\'etricas interesantes del flujo. \subsubsection{Una aplicaci\'on de la teor\'{\i}a de campos} Empezaremos introduciendo el concepto y la definici\'on de la funci\'on de corriente asociada a un campo de velocidades. \es La funci\'on de corriente es un objeto matem\'atico extremadamente \'util para resolver pro\-ble\-mas de flujo de fluidos incompresibles (l\'{\i}quidos) donde s\'olo hay dos componentes del campo no nulas y s\'olo dos coordenadas espaciales. Esto incluye los fluidos con un movimiento plano o los procesos de transporte (flujo) sim\'etricos respecto a un eje. Se trata de una herramienta muy \'util para deducir los campos de velocidad y presiones en tales pro\-ble\-mas y proporciona adem\'as informaci\'on para la visualizaci\'on de los patrones de flujo. Detalles sobre la terminolog\'{\i}a utilizada en esta aplicaci\'on se encuentran en los temas de Teor\'{\i}a de Campos, EDO y Sistemas de EDO de los guiones de la asignatura de Elementos de Matem\'aticas del primer curso. Mayores detalles se pueden encontrar en el libro de Deen\footnote{% W.M. Deen, (1998), Analysis of Transport Phenomena. Oxford University Press.}% , pag 239, donde se deducen las ecuaciones que gobiernan (determinan) la funci\'on de corriente en los distintos sistemas de coordenadas, cartesianas, cil\'{\i}ndricas y esf\'ericas t\'{\i}picamente utilizados en la Ingenier\'{\i}a Qu\'{\i}mica. \es \noindent{\underline{Funci\'on de corriente}} \es Introducimos la definici\'on de la funci\'on de corriente como un campo escalar $\psi \,:\,\R^2 \to \R$ cuya gr\'afica (dada por la superficie de ecuaci\'on $z=\psi (x,y)$) verifica un cierto problema geom\'etrico. En este caso se busca la superficie $\psi (x,y)$ tal que sus l\'{\i}neas de nivel (tambi\'en llamadas l\'{\i}neas de corriente) sean tangentes a un campo de velocidades $\bfm{v}$ dado (es decir conocido). Puesto que el gradiente de esta superficie, $\nabla \psi$, es ortogonal a las l\'{\i}neas de nivel de $% \psi$, para que \'estas sean tangentes al campo de velocidades $\bfm{v}$ se tiene que $\nabla \psi$ deber\'a ser ortogonal al mismo campo luego tendr\'a que ser de la forma $\dis \nabla \psi =(-v_y ,v_x )$ ya que \[ (v_x ,v_y )\cdot (-v_y ,v_x )=-v_x v_y +v_y v_x \equiv 0, \] es decir, \begin{equation} \label{defun} \nabla \psi \cdot \bfm{v}= \left(\dis \deri{\psi}{x},\deri{\psi}{y}\right) \cdot (v_x ,v_y )=\dis \deri{\psi}{x} v_x + \deri{\psi}{y} v_y =0, \end{equation} siendo \begin{equation} \label{funcor} \left\{\quad \dis\deri{\psi}{x}=-v_y ,\qquad \dis\deri{\psi}{y}=v_x.\qquad \right. \end{equation} Esta es la definici\'on t\'{\i}picamente utilizada para la funci\'on de corriente en un sistema de coordenadas cartesianas rectangulares $(x,y)\in\R% ^2 $ y un campo de velocidades $\bfm{v}:\,\R^2 \to \R^2$ definido por: \[ \bfm{v} (x,y)=(v_x (x,y) ,v_y (x,y)). \] N\'otese que ser\'{\i}a perfectamente equivalente definir $\dis \nabla \psi =(v_y ,-v_x )$ (es decir en la direcci\'on perpendicular pero en el sentido opuesto) puesto que la condici\'on de ortogonalidad $\bfm{v}\cdot \nabla\psi =0$, ser\'{\i}a igualmente cierta. \es Conociendo el campo de velocidades $\bfm{v}=(v_x ,v_y )$, podremos determinar la funci\'on de corriente mediante integraci\'on directa de las EDP que aparecen en el sistema (\ref{funcor}). \es La utilidad de la funci\'on de corriente en la visualizaci\'on del flujo de un fluido nace del hecho que $\psi$ (la funci\'on de corriente) es \emph{% constante a lo largo de una l\'{\i}nea de corriente}. N\'otese que el operador \[ \dis\bfm{v}\cdot \nabla \psi, \] mide la tasa de cambio de $\psi$ a lo largo de una l\'{\i}nea de corriente y la ecuaci\'on $\dis\bfm{v}\cdot \nabla \psi=0$ nos dice simplemente que la tasa es nula (pues $\psi$ es constante a lo largo de cada una de ellas por definici\'on). \es Veremos m\'as adelante que las l\'{\i}neas sobre las que $\psi (x,y)$ es constante deben ser perpendiculares a las l\'{\i}neas equipotenciales (que son las l\'{\i}neas a lo largo de las cuales el potencial $\phi (x,y)$ es constante). \es Como aplicaci\'on de lo anterior obtendremos un posible m\'etodo para el c\'alculo de las \emph{l\'{\i}neas de campo} de un campo vectorial, por ejemplo de un campo de velocidades $\bfm{v}$. Recordamos que las l\'{\i}neas de campo se interpretan geom\'etricamente como las curvas que en todos sus puntos son tangentes al vector de campo $% \bfm{v}$ (en todo instante $t$) y tienen una interpretaci\'on f\'{\i}sica muy clara. Se trata en efecto de un problema t\'{\i}pico que aparece en mec\'anica de fluidos y fen\'omenos de transporte (fluidodin\'amica) donde las l\'{\i}neas de campo se llaman tambi\'en \textbf{l\'{\i}neas de corriente% } o \textbf{trayectorias}. Si el campo de velocidades es estacionario %Este t\'ermino es debido a que la trayectoria que seguir\'{\i}a una part\'{\i}cula puntual de fluido depositada en un punto coincide con la l\'{\i}nea trazada por la co\-rrien\-te del fluido y esto justifica la terminolog\'{\i}a adoptada. Establecida la analog\'{\i}a entre los conceptos de l\'{\i}neas de campo y l\'{\i}neas de corriente (para campos es\-ta\-cio\-na\-rios \'estas \'ultimas no son otra cosa que las primeras consideradas en el contexto de la mec\'anica de fluidos), podemos ahora considerar el siguiente ejemplo: \bejem\label{ej15} Se considera el campo de velocidad bidimensional estacionario $\bfm{v}=(v_x ,v_y)$ dado por \[ v_x =x ,\qquad v_y =-y. \] Determinar las l\'{\i}neas de corriente del campo. Determinar, si existe, el potencial del campo. \enejem \es Abordaremos el problema planteado en el ejemplo \ref{ej15} %en dos formas: la primera resolviendo %un sistema de %ecuaciones diferenciales ordinarias para la determinaci\'on de la trayectoria %de una l\'{\i}nea de corriente (m\'etodo de la trayectoria) y en la %segunda resolviendo un sistema de ecuaciones diferenciales en derivadas parciales de primer orden para la funci\'on de corriente asociada al campo. Estas ecuaciones nacen a partir de la definici\'on de la funci\'on de corriente. De manera similar, es decir, resolviendo un sistema de ecuaciones diferenciales en derivadas parciales de primer orden para la funci\'on potencial asociada al campo dado (que es irrotacional) determinaremos el potencial del campo. \es %paramem Esta aplicaci\'on, que hace un puente entre el material del primer curso %y los conceptos de EDP e integraci\'on directa reci\'en introducidos %ofrece adem\'as una interpretaci\'on en t\'erminos f\'{\i}sicos %(an\'alisis de la din\'amica de un fluido) de un problema geom\'etrico %(encontrar trayectorias en el espacio satisfaciendo restricciones %geom\'etricas) mediante la resoluci\'on de una EDP. %Los tres aspectos, f\'{\i}sico, geom\'etrico y matem\'atico %est\'an estrechamente relacionados y ser\'an profundizados en este tema. %\item \textbf{C\'alculo de las l\'{\i}neas de corriente mediante la funci\'on de corriente}. \es Utilizando la definici\'on de la funci\'on de corriente dada en (\ref{funcor}% ) (v\'alida para coordenadas rect\'angulares con $v_z=0$ y ninguna dependencia en la variable $z$) se tiene: \[ \left\{ \quad \dis \deri{\psi}{y}=v_{x}=x,\qquad \deri{\psi}{x}% =-v_{y}=y.\right. \] Integrando directamente estas ecuaciones diferenciales en derivadas parciales se obtienen las siguientes expresiones para la funci\'{o}n de corriente: \[ \psi (x,y)=xy+f(x),\qquad \psi (x,y)=xy+g(y), \] siendo $f(x)$, $g(y)$, funciones arbitrarias diferenciables. Las dos expresiones co\-rres\-pon\-den a la misma funci\'{o}n, de donde se obtiene que $% f(x)=g(y)=C$. El valor de $C$ es arbitrario. La funci\'{o}n de corriente es por tanto: \[ \psi (x,y)=xy+C. \] Si ponemos $C=0$, tenemos \[ \psi (x,y)=xy, \] y la ecuaci\'{o}n para las l\'{\i }neas de corriente es $\psi (x,y)=xy=K$, siendo $K\in \R$. La elecci\'{o}n hecha para la constante tiene el efecto de asignar el valor $\psi =0$ a las l\'{\i }neas de corriente que corresponden a $x=0$ o $y=0$ (es decir: los ejes coordenados). \begin{figure}[ht] \centering \includegraphics[width=0.6\textwidth]{cap1-1.eps} \caption{L\'{\i}neas de corriente del fluido: son las curvas de nivel de la función co\-rrien\-te.} \label{figura1} \end{figure} %\FRAME{ftbpF}{200.75pt}{% %200.75pt}{0pt}{}{}{Figure }{\special{language "Scientific Word";type %"GRAPHIC";maintain-aspect-ratio TRUE;display "USEDEF";valid_file "T";width %200.75pt;height 200.75pt;depth 0pt;original-width 270.125pt;original-height %269.75pt;cropleft "0";croptop "1";cropright "1";cropbottom "0";tempfilename %'C:/URJC/escet/metodos/guiones/ej1-5a.wmf';tempfile-properties %"XNP";}} \es \noindent{\underline{Funci\'on potencial}} \es La \textbf{funci\'on potencial} (o \textbf{potencial escalar}) es un concepto que ya hemos introducido en el tema de teor\'{\i}a de campos del gui\'on del primer curso. Recordamos aqu\'{\i} brevemente la definici\'on de potencial escalar de un campo vectorial. Consideremos nuevamente el campo de velocidades del ejemplo $\bfm{v}=(v_x ,v_y)$ dado por: \[ v_x =x ,\qquad v_y =-y. \] En este contexto, la funci\'on potencial se llama \textbf{velocidad potencial}% . Puesto que \[ \dis \deri{v_x}{y}=0=\deri{v_y}{x}, \] se tiene, \[ \mbox{rot}\bfm{v}(x,y) =\nabla \wedge \bfm{v}(x,y) = \left( % \deri{v_y}{x}(x,y)-\deri{v_x}{y}(x,y)\right)\bfm{k} =\bfm{0}, \] luego el campo de velocidades es un campo vectorial plano irrotacional pues el \textbf{rotacional escalar} \[ \left( \deri{v_y}{x}(x,y)-\deri{v_x}{y}(x,y)\right), \] es nulo. \es El campo vectorial considerado se puede por tanto identificar con un campo conservativo luego deriva de un campo escalar $\phi (x,y)$ llamado \textbf{% potencial escalar} de forma que \[ \nabla \phi =\bfm{v}. \] \es \textbf{C\'alculo de las l\'{\i}neas equipotenciales mediante el potencial escalar}. \es La determinaci\'on del potencial escalar de un campo conservativo se realiza integrando las igualdades \[ \dis \left(\deri{\phi}{x} ,\deri{\phi}{y} \right) =(v_x ,v_y ), \] En nuestro caso vemos que la funci\'on escalar $\phi (x,y)$ verifica el sistema de EDP: \[ \dis \left\{\quad \dis \deri{\phi}{x} =v_x =x ,\qquad \dis \deri{\phi}{y} =v_y =-y. \qquad \right. \] Integrando se tiene: \[ \dis \left\{\quad \phi (x,y)=\frac{1}{2}x^2 +f (y) ,\qquad \phi (x,y)=-\frac{% 1}{2}y^2 +g (x). \qquad \right. \] Derivando parcialmente con respecto a $y$ en la primera expresi\'on de $\phi$ y derivando parcialmente con respecto a $x$ en la segunda expresi\'on de $% \phi$ se deduce: \[ \dis \deri{\phi}{y} =v_y =-y =f^{\prime}(y),\qquad \dis \deri{\phi}{x} =v_x =x =g^{\prime}(x), \] luego para determinar las expresiones de las funciones arbitrarias $f$ y $g$ es suficiente resolver las EDO: \[ \dis \left\{\quad f^{\prime}(y)=-y ,\qquad g^{\prime}(x)=x, \qquad \right. \] y obtener: \[ \dis \left\{\quad f (y)=-\frac{1}{2}y^2 +C_1 ,\qquad g (x)=\frac{1}{2}x^2 +C_2, \qquad \right. \] a partir de las cuales se tiene la siguiente expresi\'on del potencial escalar del campo de velocidades: \[ \dis \phi (x,y)=\frac{1}{2}(x^2 -y^2 )+C, \] siendo $C=C_1 =C_2$ una constante arbitraria de integraci\'on. Las l\'{\i}neas equipotenciales de este campo escalar (v\'ease su definici\'on en el tema de teor\'{\i}a de campos del gui\'on de primer curso), se definen por $\phi (x,y)= \alpha$, $\alpha\in\R$ es decir, \[ \dis \phi (x,y)=\frac{1}{2}(x^2 -y^2 )+C =\alpha, \] luego tienen la ecuaci\'on: \[ x^2 -y^2 =K ,\qquad K=2(\alpha -C), \] y son por tanto, \[ \left\{ \begin{array}{rcll} \dis x & = & \pm \sqrt{K+y^{2}} & K\geq 0 \\[0.2cm] \noalign{\smallskip}\dis y & = & \pm \sqrt{x^{2}-K} & K\leq 0, \end{array} \right. \] y el gradiente de $\phi $ en cada punto (es decir los vectores de \textbf{% m\'{a}ximo ascenso}) marca la velocidad en ese punto: $\nabla \phi =\bfm{v}$% . \begin{figure}[ht] \centering \includegraphics[width=0.6\textwidth]{cap1-2.eps} \caption{L\'{\i}neas potenciales: son las curvas de nivel de la función potencial.} \label{figura1} \end{figure} %\FRAME{ftbpF}{200.75pt}{200.75pt}{0pt}{}{}{Figure %}{\special{language "Scientific Word";type %"GRAPHIC";maintain-aspect-ratio TRUE;display "USEDEF";valid_file %"T";width 200.75pt;height 200.75pt;depth 0pt;original-width %213.75pt;original-height 213.375pt;cropleft "0";croptop %"1";cropright "1";cropbottom "0";tempfilename %'C:/URJC/escet/metodos/guiones/ej1-5b.wmf';tempfile-properties %"XNP";}}\es \subsubsection*{Ortogonalidad de las l\'{\i}neas de corriente con las l\'{\i}neas equipotenciales de un flujo plano irrotacional} Es posible demostrar que las l\'{\i}neas equipotenciales son ortogonales a las l\'{\i}neas de campo (o l\'{\i}neas de corriente). Lo veremos primero en nuestro caso concreto donde: \[ \phi (x,y) =x^2 -y^2 ,\qquad \psi (x,y)=xy, \] son el potencial de velocidad y la funci\'on de corriente determinados antes (se han elegido constantes arbitrarias tales que $\phi (0,0)=\psi (0,0)=0$); posteriormente ve\-re\-mos que la propiedad de ortogonalidad se tiene en general (si el flujo es plano e irrotacional). \es Sea $(x_0 ,y_0 )$ un punto gen\'erico del plano $\R^2$. Por comodidad supondremos $y_0 > 0$ (se razonar\'{\i}a de forma an\'aloga si $y_0 <0$). Si $y_0 =0$ la l\'{\i}nea de corriente que pasa por $(x_0 ,0 )$ es $\psi (x,y)=xy=0$, es decir, el eje $y=0$. Si $(x_0 ,y_0 )=(0,0)$ entonces la l\'{\i}nea de corriente viene dada por los ejes coordenados de ecuaci\'on $% y=0$ o $x=0$. \es La l\'{\i}nea equipotencial y la l\'{\i}nea de corriente que pasa por $(x_0 ,y_0 )$, $y_0 >0$ ser\'an, respectivamente, \[ \phi (x,y)=x^2 -y^2 =x_0^2 -y_0^2 ,\qquad \psi (x,y)=xy =x_0 y_0, \] es decir, \[ y =y(x)=\dis \pm \sqrt{x^2 -x_0^2 +y_0^2} ,\qquad y = y(x)=\dis \frac{x_0 y_0% }{x}. \] Calculando sus derivadas (que nos dan el coeficiente angular de sus rectas tangentes) se tiene: \[ y^{\prime}=y^{\prime}(x)=\dis \pm \frac{x}{\sqrt{x^2 -x_0^2 +y_0^2}} ,\qquad y^{\prime}=y^{\prime}(x)=-\dis \frac{x_0 y_0}{x^2}, \] y evaluando en $x_0$ (recu\'erdese que, por hip\'otesis, $y_0 >0$): \[ y^{\prime}(x_0)=m_1 \doteq \dis \pm \frac{x_0}{|y_0|}= \dis \pm \frac{x_0}{% y_0} ,\qquad y^{\prime}=y^{\prime}(x_0 )=m_2 \doteq -\dis \frac{x_0 y_0}{x_0^2} =-\dis \frac{y_0}{x_0}. \] Un conocido resultado de la geometr\'{\i}a anal\'{\i}tica nos dice que dos rectas son ortogonales cuando el producto de los coeficientes angulares es $% - 1$. Calculamos entonces el producto $m_1 m_2 $ para obtener \[ \dis m_1 m_2 = \dis \left( \pm \frac{x_0}{|y_0|}\right)\left( -\dis \frac{y_0}{x_0}\right)=\mp \frac{y_0}{|y_0 |}=\mp 1, \] luego si $y_0 >0$, entonces la l\'{\i}nea equipotencial \[ y =y(x)=\dis \sqrt{x^2 -x_0^2 +y_0^2}, \] cuya recta tangente tiene coeficiente angular $m_1 =x_0 /y_0$, es ortogonal a la l\'{\i}nea de corriente \[ y(x)=\dis \frac{x_0 y_0}{x}, \] cuya recta tangente tiene coeficiente angular $m_2 =-y_0 /x_0$. Si $y_0 <0$ entonces la l\'{\i}nea equipotencial \[ y =y(x)=\dis - \sqrt{x^2 -x_0^2 +y_0^2}, \] cuya recta tangente tiene coeficiente angular $m_1 =x_0 /y_0$, es ortogonal a la l\'{\i}nea de corriente \[ y(x)=\dis \frac{x_0 y_0}{x}, \] cuya recta tangente tiene coeficiente angular $m_2 =-y_0 /x_0$. \es En lugar de desarrollar los c\'{a}lculos anteriores, es posible demostrar la ortogonalidad de las l\'{\i }neas de corriente con las l\'{\i }neas equipotenciales en el caso de flujos planos irrotacionales mediante la siguiente observaci\'{o}n. Por la definici\'{o}n (\ref{funcor}) de la funci\'{o}n de corriente se tiene que: \[ \dis \bfm{v}\cdot \nabla \psi =(v_{x},v_{y})\cdot \left( \dis \deri{\psi}{x},% \deri{\psi}{y}\right) =\dis v_{x}\deri{\psi}{x}+v_{y}\deri{\psi}{y}% =-v_{x}v_{y}+v_{y}v_{x}\equiv 0. \] Por otra parte, al ser $\bfm{v}$ un campo potencial, se tiene que $\dis % \nabla \phi =\bfm{v}$. Juntando las dos ecuaciones, $\dis\bfm{v}\cdot \nabla \psi =0$ y $\dis \nabla \phi =\bfm{v}$, se deduce, \[ \dis\nabla \psi \cdot \nabla \phi =0, \] lo que expresa la ortogonalidad de los respectivos gradientes. Ahora bien, $% \nabla \psi (x_{0},y_{0})$ es un vector ortogonal a la l\'{\i }nea de corriente que pasa por $(x_{0},y_{0})$ mientras que $\nabla \phi (x_{0},y_{0})$ es un vector ortogonal a la l\'{\i }nea equipotencial que pasa por $(x_{0},y_{0})$ luego las l\'{\i }neas mencionadas se cruzan ortogonalmente. \begin{figure}[ht] \centering \includegraphics[width=0.6\textwidth]{cap1-3.eps} \caption{L\'{\i}neas potenciales y de corriente: obs\'ervese la ortogonalidad entre ellas.} \label{figura1} \end{figure} %\FRAME{ftbphF}{200.75pt}{200.75pt}{0pt}{}{}{Figure }{% %\special{language "Scientific Word";type "GRAPHIC";maintain-aspect-ratio %TRUE;display "USEDEF";valid_file "T";width 200.75pt;height 200.75pt;depth %0pt;original-width 213.75pt;original-height 213.375pt;cropleft "0";croptop %"1";cropright "1";cropbottom "0";tempfilename %'C:/URJC/escet/metodos/guiones/ej1-5c.wmf';tempfile-properties "XNP";}}\es Volveremos a este ejemplo tras haber introducido otros conceptos, definiciones y t\'ecnicas de resoluci\'on necesarios para ulteriores desarrollos. Puesto que los fundamentos de la interpretaci\'on geom\'etrica del proceso de resoluci\'on de una EDP se apoyan fuertemente en los de curvas y superficies hemos resumido algunos resultados b\'asicos en los anexos al primer tema. %\subsubsection*{Representaciones de una curva} \section{Ecuaciones cuasilineales de primer orden} La ecuaci\'on (\ref{genedp}) en el caso en que $m=1$ nos proporciona la denominada ecuaci\'on cuasilineal de primer orden: \begin{equation} \label{genedp1} F\left( x_1 ,x_2 ,... ,x_n , u,\deri{u}{x_1} ,...,\deri{u}{x_n}\right) =0, \end{equation} que tendr\'a que verificarse en una regi\'on $\Omega \subset\R^n$, siendo $% n\geq 2$. %eventualmente $\Omega \equiv \R^n$. Si $n=2$ entonces se pone $(x_1 ,x_2 )=(x,y)\in\Omega \subset\R^2$ y se tiene la forma general de la EDP de primer orden cuasilineal bidimensional dada por: \begin{equation} \label{genedp2} F\left( x ,y , u,\deri{u}{x} ,\deri{u}{y}\right) =0 \end{equation} La ecuaci\'on en la forma (\ref{genedp2}) admite una interpretaci\'on geom\'etrica en t\'erminos de la teor\'{\i}a de campos (tema 12 de la asignatura de primer curso). \es Dos problemas que surgen de modo \emph{natural} al estudiar un campo vectorial continuo (aunque supondremos algo m\'as de regularidad, digamos campos de clase $C^1$ para poder aplicar las t\'ecnicas del c\'alculo diferencial vectorial) %(v\'ease el tema 12 de la asignatura del primer curso sobre la teor\'{\i}a de campos) son los problemas sobre la determinaci\'on de las l\'{\i}neas vectoriales y de las superficie vectoriales. Casi con la misma frecuencia surge el problema sobre la determinaci\'on de la familia de superficies ortogonales a las l\'{\i}neas vectoriales. Analizaremos estos problemas en las siguientes secciones haciendo hincapi\'e en su interpretaci\'on geom\'etrica. Previamente, es necesario considerar algunos aspectos, conceptos y definiciones de la teor\'{\i}a matem\'atica general de las EDP de primer orden. \subsection{Teor\'{\i}a matem\'atica general} Seguiremos en esta exposici\'on el libro de Elsgoltz\footnote{% Elsgoltz, L., (1983). Ecuaciones diferenciales y c\'alculo variacional. Tercera ed. Editorial Mir.} cap\'{\i}tulo 5. Tambi\'en se ha utilizado el cap\'{\i}tulo 1 del libro de F. John\footnote{% Fritz John, (1982). Partial differential equations. IV Ed. Applied Mathematical Sciences. Springer Verlag.}. \es Se denomina ecuaci\'on \textbf{cuasilineal de primer orden} en derivadas parciales en forma normal (o expl\'{\i}cita) a una ecuaci\'on de la forma: \begin{equation} \label{epri} P_1 (x_1 ,x_2, ...., x_n, u)\deri{u}{x_1} + ..... + P_n (x_1 ,x_2, ...., x_n, u) \deri{u}{x_n} =R (x_1 ,x_2, ...., x_n, u). \end{equation} N\'otese que el tipo de ecuaci\'on (\ref{epri}) es un caso particular de (% \ref{genedp1}) donde la inc\'ognita del problema es $u(x_1 ,...,x_n)$. Esta ecuaci\'on es lineal con respecto a las derivadas, pero puede no ser lineal con respecto a la funci\'on desconocida $u$ (en cuyo caso es cuasilineal). Concretamente, se tiene la siguiente clasificaci\'on: \es \centerline{\underline{CLASIFICACI\'ON}} \es \begin{enumerate} \item Si $R\equiv 0$ y $P_{i}=P_{i}(x_{1},x_{2},...,x_{n})$ (no dependen de $u$) la ecuaci\'{o}n (\ref{epri}) se llama \textbf{lineal homog\'{e}nea}: \[ P_{1}(x_{1},x_{2},....,x_{n})\deri{u}{x_1}% +.....+P_{n}(x_{1},x_{2},....,x_{n})\deri{u}{x_n}=0. \] Si definimos $\vec{x}=(x_{1},...,x_{n})$, $\vec{P}=(P_{1},...,P_{n})$ la ecuaci\'{o}n anterior se puede escribir en la forma equivalente: \[ \vec{P}(\vec{x})\cdot \nabla u(\vec{x})=0, \] siendo $\vec{x}\in \Omega \subset \R^{n}$. Si adem\'{a}s los coeficientes $% P_{i}$ son constantes, $P_{i}\equiv c_{i}$, $c_{i}\in \R$, $i=1,..,n$, la ecuaci\'{o}n (\ref{epri}) se dice \textbf{lineal homog\'{e}nea con coeficientes constantes}: \[ c_{1}\deri{u}{x_1}+\,.......\,+c_{n}\deri{u}{x_n}=0. \] Si definimos $\vec{c}=(c_{1},...,c_{n})$ y utilizamos la notaci\'{o}n anterior la ecuaci\'{o}n se puede escribir en la forma equivalente: \[ \vec{c}\cdot \nabla u(\vec{x})=0, \] siendo $\vec{x}\in \Omega \subset \R^{n}$. Ejemplos concretos pueden ser: \[ \dis \deri{u}{x}-\deri{u}{y}=0,\qquad \dis e^{yx}\deri{u}{x}-(x+y)\deri{u}{y}% =0, \] que son dos ecuaciones en derivadas parciales de primer orden lineales homog\'{e}neas. La primera con coeficientes constantes, $\vec{c}% =(c_{1},c_{2})=(1,-1)$ y la segunda con coeficientes va\-ria\-bles, $\vec{P}=% \dis (P_{1}(x,y),P_{2}(x,y))=(e^{xy},x+y)$. \item Si $R\neq 0$ y $R(x_{1},x_{2},....,x_{n},u)$ es lineal en $u$ y adem\'{a}s se tiene que los coeficientes $P_{i}$ son funciones del tipo (como antes) $P_{i}=P_{i}(x_{1},x_{2},...,x_{n})$ (es decir no dependen de $u $) entonces la ecuaci\'{o}n (\ref{epri}) se llama \textbf{lineal no homog\'{e}nea}: \[ P_{1}(x_{1},x_{2},....,x_{n})\deri{u}{x_1}% +.....+P_{n}(x_{1},x_{2},....,x_{n})\deri{u}{x_n}% =a(x_{1},...,x_{n})u+b(x_{1},..x_{n}) \] siendo $a$, $b$ funciones coeficientes que no dependen de $u$: \[ R(x_{1},...,x_{n})=a(x_{1},...,x_{n})u+b(x_{1},..x_{n}). \] %Si los $P_i$ son constantes, $P_i \equiv c_i $, $c_i \in\R$, $i=1,..,n$, %la ecuaci\'on (\ref{epri}) se dice {\bf lineal no homog\'enea %a coeficientes constantes} %$$ %c_1 \deri{u}{x_1} %+ ..... + c_n \deri{u}{x_n} =a(x_1 ,...,x_n )u+b(x_1 ,..x_n) %$$ Esta ecuaci\'{o}n se puede escribir en la forma equivalente \[ \vec{P}(\vec{x})\cdot \nabla u(\vec{x})=\] \[a(\vec{x})u+b(\vec{x}), \] siendo $\vec{x}\in \Omega \subset \R^{n}$. Ejemplos pueden ser \[ \dis \deri{u}{x}-\deri{u}{y}=2u-(x^{2}+y^{2}),\qquad \dis e^{yx}\deri{u}{x}% -(x+y)\deri{u}{y}=x+y+u, \] que son dos ecuaciones en derivadas parciales de pri\-mer or\-den li\-nea\-les no ho\-mo\-g\'{e}neas. La primera con coeficientes constantes y la segunda con coeficientes va\-ria\-bles. \item Si alg\'{u}n coeficiente $P_{i}$ depende de $u$, en la forma $% P_{i}=P_{i}(x_{1},x_{2},...,x_{n},u)$ y adem\'{a}s $R\equiv 0$ la ecuaci\'{o}n (\ref{epri}) se llama \textbf{cuasilineal homog\'{e}nea} y es de la forma: \[ P_{1}(x_{1},x_{2},....,x_{n},u)\deri{u}{x_1}% +.....+P_{n}(x_{1},x_{2},....,x_{n},u)\deri{u}{x_n}=0, \] donde la homogeneidad se deduce de la condici\'{o}n $R=0$. Esta ecuaci\'{o}n se puede escribir en la forma equivalente \[ \vec{P}(\vec{x},u)\cdot \nabla u(\vec{x})=0, \] siendo $\vec{x}\in \Omega \subset \R^{n}$. \es N\'{o}tese que si los coeficientes $P_{i}$ dependen de $u$ en forma lineal la ecuaci\'{o}n sigue siendo cuasilineal. Por ejemplo, el t\'{e}rmino $\dis % uu_{x_{1}}$ es no lineal aunque la dependencia $% P_{1}(x_{1},x_{2},...,x_{n},u)=u$ es lineal. De hecho, es un t\'{e}rmino cuadr\'{a}tico pues se puede escribir en la forma: \[ \dis u\deri{u}{x_1}=\frac{1}{2}\deri{}{x_1}(u^2). \] Ejemplo: \[ \dis u\deri{u}{x}-\deri{u}{y}=0,\qquad \dis e^{yx}\deri{u}{x}-(u+x+y)% \deri{u}{y}=0, \] son dos ecuaciones en derivadas parciales de primer orden cuasilineales homog\'{e}neas. \item Sea $R\neq 0$ (no id\'enticamente nula; puede depender de $u$). Si alg\'{u}n coeficiente $P_{i}$ depende de $u$, $% P_{i}=P_{i}(x_{1},x_{2},...,x_{n},u),$ %y/o $R$ depende de $u$ en forma no lineal entonces la ecuaci\'{o}n (\ref{epri}) se llama \textbf{cuasilineal no homog\'{e}nea}. Esta ecuaci\'{o}n se puede escribir en la forma equivalente: \[ \vec{P}(\vec{x},u)\cdot \nabla u(\vec{x})=R(\vec{x},u), \] siendo $\vec{x}\in \Omega \subset \R^{n}$. Por ejemplo: \[ \dis u\deri{u}{x}-\deri{u}{y}=x,\qquad \dis e^{yx}\deri{u}{x}-(u+x+y)% \deri{u}{y}=-u^{2}, \] son dos ecuaciones en derivadas parciales de pri\-mer or\-den cua\-si\-li\-ne\-al\-es no ho\-mo\-g\'{e}neas. \end{enumerate} En el caso bidimensional la notaci\'on anterior se simplifica. Si $n=2$, entonces $(x_1 ,x_2 )=(x,y)\in\Omega \subset\R^2$ y la ecuaci\'on cuasilineal de primer orden (\ref{epri}) se tranforma en: \begin{equation} \label{epribis} P(x,y,u)\deri{u}{x}+Q(x,y,u)\deri{u}{y}=R(x,y,u), \end{equation} siendo $P_1 (x,y,u)=P(x,y,u)$, $P_2 (x,y,u)=Q(x,y,u)$. Obviamente la clasificaci\'on co\-rres\-pon\-diente se obtiene particularizando lo anterior. T\'{\i}picamente se denota la soluci\'on $u(x,y)$ en la forma $% z=u(x,y)$, que es la ecuaci\'on (expl\'{\i}cita y en coordenadas cartesianas) de una superfice en el espacio tridimensional. Las superficies $% z=u(x,y)$, que son soluciones de la EDP se llaman \textbf{superficies integrales} de la EDP. \es Introducida la forma general de las ecuaciones que trataremos en las secciones si\-guien\-tes pasaremos ahora a dar una interpretaci\'on geom\'etrica del proceso de resoluci\'on. El resultado principal que veremos es que la soluci\'on general de una EDP del tipo (\ref{genedp1}) (o en la forma expl\'{\i}cita (\ref{epri})) se puede obtener resolviendo sistemas (eventualmente acoplados) de ecuaciones diferenciales ordinarias que nacen al considerar ciertos problemas geom\'etricos t\'{\i}picos de la teor\'{\i}a de campos. \subsubsection{Interpretaci\'on geom\'etrica} Daremos ahora una interpretaci\'on geom\'etrica del problema de la resoluci\'on de una EDP lineal no homog\'enea (o cuasilineal) de primer orden. \es Veremos que resolver una EDP de tal tipo implicar\'a buscar las l\'{\i}neas de campo (o l\'{\i}neas vectoriales) de un campo vectorial \emph{naturalmente% } asociado a la EDP. El problema se reconducir\'a por tanto a resolver un sistema de EDO cuyas soluciones (denominadas las caracter\'{\i}sticas de la EDP) ser\'an las ecuaciones de las l\'{\i}neas de campo del campo vectorial. La soluci\'on general de la EDP original nos dar\'a las ecuaciones de las superficies vectoriales del campo. Seleccionar una superficie vectorial concreta equivaldr\'a a resolver un problema de Cauchy prefijando una curva en el espacio por donde tiene que pasar la superficie seleccionada. Analizaremos, adem\'as, los problemas que surgen al prefijar una curva que sea caracter\'{\i}stica para la EDP. \es Para mayor claridad en la interpretaci\'on geom\'etrica, estudiemos la ecuaci\'on cuasilineal con dos variables independientes $(x,y)\in\Omega \subset \R^2 $ dada en (\ref{epribis}), es decir, \[ %\begin{equation}\label{epridos} P(x,y,u)\deri{u}{x}+Q(x,y,u)\deri{u}{y}=R(x,y,u), \] %\end{equation} siendo $u=u(x,y)$ la inc\'ognita del problema. La ecuaci\'on (\ref{epribis}) se deduce de la ecuaci\'on (\ref{epri}) para $N=2$, $(x_1 ,x_2 )=(x,y)$, $% (P_1 ,P_2 )=(P,Q)$, $R=R$. Supondremos que las funciones coeficientes $P$, $% Q $, $R$ son diferenciables con continuidad (de clase $C^1 (\Omega )$) en la regi\'on considerada de variaci\'on de las variables, $\Omega$, y que no se anulan simult\'aneamente en un punto de $\Omega$ pues de lo contrario obtendr\'{\i}amos en aquel punto la identidad $0=0$ que ser\'{\i}a cierta para cualquier funci\'on y la ecuaci\'on \emph{desaparecer\'{\i}a}. Otras situaciones \emph{delicadas} se podr\'{\i}an presentar al anularse uno de los dos coeficientes $P$ o $Q$. En tal caso la ecuaci\'on degenerar\'{\i}a, en el sentido de que cambiar\'{\i}a de tipo, pasando de EDP a EDO pues nos quedar\'{\i}a s\'olo una derivada parcial. En estos casos ser\'{\i}a todav\'{\i}a posible encontrar las soluciones de la EDP pero en un sentido d\'ebil. Tambi\'en podr\'{\i}a ocurrir que ambos coeficientes $P$ y $Q$ se anularan simult\'aneamente en un punto (sin que lo hiciera $R$). En tal caso pasar\'{\i}amos de una EDP a una ecuaci\'on algebraica siendo a\'un m\'as \emph{dram\'atica} la degeneraci\'on. En estos casos sigue siendo posible desarrollar un an\'alisis local de la ecuaci\'on pero procuraremos evitar estos casos digamos \emph{patol\'ogicos}. \subsubsection*{La interpretaci\'on geom\'etrica} La idea b\'asica de la interpretaci\'on geom\'etrica consiste en asociar a la ecuaci\'on (\ref{epribis}) el campo vectorial de clase $C^1 (\Omega )$, siendo $\Omega$ una regi\'on abierta de $\R^3$, \[ \bfm{F}:\Omega \subset \R^3 \to \R^3, \] dado por: \begin{equation} \label{aso} \bfm{F}(x,y,u)=P(x,y,u)\bfm{i} + Q(x,y,u)\bfm{j}+ R(x,y,u)\bfm{k}, \end{equation} siendo $\bfm{i}$, $\bfm{j}$, $\bfm{k}$, vectores unitarios dirigidos por los ejes de coordenadas. \es Antes de entrar en detalles con la interpretaci\'on geom\'etrica recordaremos algunos conceptos y definiciones b\'asicos para sucesivos tratamientos. \medskip Las \textbf{l\'{\i }neas vectoriales} de este campo (es decir, las l\'{\i }neas cuyas tangentes tienen en cada punto la direcci\'{o}n del vector $% \bfm{F}$ en dicho punto) son las \textbf{curvas caracter\'{\i }sticas} de la EDP y se determinan por la condici\'{o}n de paralelismo entre el vector $% \bfm{T}=\bfm{i}dx+\bfm{j}dy+\bfm{k}du$ (vector director de la tangente a las l\'{\i }neas buscadas) y el vector $\bfm{F}$. Utilizando el producto vectorial esta condici\'{o}n se escribe en la forma: \[ \bfm{T}\wedge \bfm{F}=(Rdy-Qdu)\bfm{i}+(Pdu-Rdx)\bfm{j}+(Qdx-Pdy)\bfm{k}=% \bfm{0}. \] A lo largo de una curva caracter\'{\i }stica se tiene por tanto: \begin{equation} \label{ecca} \dis \frac{dx}{P(x,y,u)}= \dis \frac{dy}{Q(x,y,u)}=\dis \frac{du}{R(x,y,u)}. \end{equation} Las ecuaciones (\ref{ecca}) se conocen con el nombre de ecuaciones caracter\'{\i}sticas de la EDP y su resoluci\'on nos proporciona las l\'{\i}neas vectoriales del campo. \es Introduciendo un par\'ametro $\theta$ podemos escribir la condici\'on (\ref {ecca}) (que define las curvas caracter\'{\i}sticas de la EDP) en la forma \[ \dis \frac{dx}{P(x,y,u)}= \dis \frac{dy}{Q(x,y,u)}=\dis \frac{du}{R(x,y,u)} =d\theta, \] para obtener el sistema de ecuaciones diferenciales: \[ \dis \left\{ \quad \dis \frac{dx}{d\theta }=P(x,y,u),\qquad \dis \frac{dy}{% d\theta }=Q(x,y,u),\qquad \dis \frac{du}{d\theta }=R(x,y,u).\quad \right. \] Este sistema se dice aut\'{o}nomo ya que la variable in\-de\-pen\-dien\-te $% \theta $ no aparece ex\-pl\'{\i }\-ci\-ta\-mente. Su\-po\-nien\-do que $% P,Q,R $ son de clase $C^{1}(\Omega )$ sabemos por la teor\'{\i }a de las ecuaciones di\-fe\-ren\-ciales ordinarias (v\'{e}anse los temas correspondientes de EDO y sistemas de EDO del primer curso) que a trav\'{e}s de cualquier punto de $\Omega $ pasa exactamente una curva caracter\'{\i }stica de la EDP o (lo que es lo mismo) una l\'{\i }nea vectorial del campo. \es N\'otese que aunque la introducci\'on del par\'ametro $\theta$ pueda parecer bastante \emph{artificial}, ser\'a en realidad entendida como \emph{natural} al considerar la expresi\'on param\'etrica de las curvas buscadas. Consideraremos esta situaci\'on en la secci\'on dedicada al caso param\'etrico. %en el espacio $\Gamma_0$ %$$ %\Gamma_0 =\left\{\quad (x,y,z)\in\R^3 /\, x=x(\theta ), \quad y=y(\theta ), %\quad %z=u(\theta )\quad\right\} %$$ %y la correspondiente expresi\'on %param\'etrica del vector a ella tangente \medskip Las superficies formadas por las \textbf{l\'{\i }neas vectoriales} del campo se llaman \textbf{superficies vectoriales}. Si una superficie $S$ definida por $u=u(x,y)$ es la uni\'{o}n de curvas caracter\'{\i }sticas, entonces $S$ es una superficie integral (es decir una soluci\'{o}n de la EDP). Por otra parte, cualquier superficie integral es uni\'{o}n de curvas caracter\'{\i }sticas (lo que equivale a afirmar que a trav\'{e}s de cualquier punto de la superficie $S$ pasa una curva caracter\'{\i }stica contenida en $S$). Estos resultados son una consecuencia del siguiente teorema (cuya demostraci\'{o}n se puede encontrar en el libro de F. John, pag 10) \beteor\label{unidos} Sea dado un punto $P_0 =(x_0 ,y_0 ,z_0 )\in\R^3$ que pertenece a una superficie integral $S$ de la EDP definida por $z=u(x,y)$. Sea $\Gamma$ la curva caracter\'{\i}stica que pasa por el punto $P_0$. Entonces $\Gamma$ est\'a completamente contenida en $S$. \enteor Como consecuencia directa de este resultado, dos superficie integrales que tienen un punto $P_0$ en com\'un se intersecan a lo largo de toda la caracter\'{\i}stica que pasa por $P_0$ (es decir que ambas contienen completamente a la caracter\'{\i}stica). Tenemos ahora una simple descripci\'on de la soluci\'on general de (\ref{epribis}): las superficies integrales $z=u(x,y)$ que son uni\'on de curvas caracter\'{\i}sticas. \es Siendo $\bfm{N}$ un vector normal a la superficie vectorial, esta superficie se caracteriza por la ecuaci\'on $\bfm{N}\cdot \bfm{F} =0$ pues el vector $% \bfm{N}$ que tiene la direcci\'on de la normal a la superficie, es ortogonal al vector $\bfm{F}$ del campo en todo punto de \'esta. Esta ecuaci\'on tiene dos expresiones distintas dependiendo del tipo de representaci\'on que se utilize para definir la superficie. En concreto, se tiene: \es \begin{enumerate} \item Si la superficie vectorial se determina expl\'{\i }citamente por la ecuaci\'{o}n $z=u(x,y)$, entonces el vector normal es \[ \bfm{N}=\dis \deri{u}{x}\bfm{i}+\deri{u}{y}\bfm{j}-\bfm{k}=(u_{x},u_{y},-1), \] y la condici\'{o}n de ortogonalidad $\bfm{N}\cdot \bfm{F}=0$ toma la forma de la ecuaci\'{o}n (\ref{epribis}). El vector normal unitario es: \[ \bfm{n}=\dis \frac{\bfm{N}}{\Vert \bfm{N}\Vert }=\dis \frac{(u_{x},u_{y},-1)}{\sqrt{1+u_{x}^{2}+u_{y}^{2}}}. \] \item Si la superficie vectorial se determina impl\'{\i }citamente por la ecuaci\'{o}n $S(x,y,z)=0$, siendo: \[ \dis \nabla S=\left( \deri{S}{x},\deri{S}{y},\deri{S}{z}\right), \] entonces el vector normal es: \[ \bfm{N}=\dis \deri{S}{x}\bfm{i}+\deri{S}{y}\bfm{j}+\deri{S}{z}\bfm{k}, \] y la condici\'{o}n de ortogonalidad $\bfm{N}\cdot \bfm{F}=0$ toma la forma de la ecuaci\'{o}n: \begin{equation} P(x,y,u)\deri{S}{x}+Q(x,y,u)\deri{S}{y}+R(x,y,u)\deri{S}{u}=0, \label{epritres} \end{equation} siendo $S(x,y,u)$ la soluci\'{o}n buscada. El vector normal unitario es, en este caso: \[ \bfm{n}=\dis \frac{\nabla S}{\Vert \nabla S\Vert }. \] \end{enumerate} \es Por consiguiente, para hallar las superficies vectoriales hay que integrar la ecuaci\'on cuasilineal (\ref{epribis}), o la ecuaci\'on lineal homog\'enea (\ref{epritres}), seg\'un se busque la ecuaci\'on de las superficies vectoriales en forma expl\'{\i}cita o impl\'{\i}cita. \es \subsubsection{El proceso de resoluci\'on} Veamos ahora como actuar cuando la integraci\'on de una EDP no es directa. Puesto que las superficies vectoriales pueden formarse por l\'{\i}neas vectoriales, la integraci\'on de la ecuaci\'on cuasilineal no homog\'enea (% \ref{epribis}) (que nos proporciona las ecuaciones expl\'{\i}citas de las superficies integrales soluciones de la EDP) %(o su forma impl\'{\i}cita (\ref{epritres})) se reduce a la integraci\'on del sistema de ecuaciones diferenciales ordinarias de las l\'{\i}neas vectoriales que aparece en (\ref{ecca}) y que aqu\'{\i} recordamos: \[ \dis \frac{dx}{P(x,y,u)}= \dis \frac{dy}{Q(x,y,u)}=\dis \frac{du}{R(x,y,u)}. \] Sean $\psi_1 (x,y,u)=c_1$, $\psi_2 (x,y,u)=c_2$ dos soluciones (se las llama tambi\'en \textbf{integrales primeras}) independientes del sistema (\ref {ecca}). Obs\'ervese que la independencia se obtiene al considerar s\'olo dos %(las dos m\'as sencillas) de las tres ecuaciones caracter\'{\i}sticas. Esta selecci\'on se realiza siguiendo los siguientes principios: siempre se considera la primera de ellas, \[ \dis \frac{dx}{P(x,y,u)}= \dis \frac{dy}{Q(x,y,u)}, \] que nos proporciona las caracter\'{\i}sticas de la EDP y despu\'es se considera una cualquiera (se suele elegir la m\'as sencilla) entre \[ \dis \frac{dx}{P(x,y,u)}= \dis \frac{du}{R(x,y,u)},\qquad \dis \frac{dy}{% Q(x,y,u)}=\dis \frac{du}{R(x,y,u)}, \] lo que nos proporciona las superficies integrales de la EDP. En general, las curvas $\psi_1$, $\psi_2$ (obtenidas al resolver dos de las tres ecuaciones diferenciales ordinarias) son las \textbf{caracter\'{\i}sticas} de la ecuaci\'on en derivadas parciales. Su expresi\'on define, como ya vimos en la secci\'on anterior, las l\'{\i}neas vectoriales del campo asociado a la EDP. Puesto que las superficies vectoriales (soluciones de la EDP) deben contener todas las caracter\'{\i}sticas podemos encontrar la ecuaci\'on de las superficies vectoriales estableciendo una dependencia continua cualquiera $\Phi (c_1 ,c_2 )=0$ entre los par\'ametros $c_1$, $c_2$ que nos permita \emph{pasar con continuidad} de una l\'{\i}nea vectorial a otra generando as\'{\i} una superfice. Eliminando los par\'ametros $c_i$ del sistema: \[ \psi_1 (x,y,u)=c_1 ,\qquad \psi_2 (x,y,u)=c_2,\qquad \Phi (c_1 ,c_2 )=0, \] obtenemos la ecuaci\'on buscada: \[ \Phi (\psi_1 (x,y,u), \psi_2 (x,y,u) )=0, \] siendo $\Phi$ una funci\'on arbitraria. De este modo, la integral de la ecuaci\'on cuasilineal (\ref{epribis}) (dependiente de una funci\'on arbitraria) \[ P(x,y,u)\deri{u}{x}+Q(x,y,u)\deri{u}{y}=R(x,y,u), \] puede obtenerse por el m\'etodo siguiente: \begin{enumerate} \item Se integra el sistema auxiliar de ecuaciones (\ref{ecca}): \[ \dis \frac{dx}{P(x,y,u)}=\dis \frac{dy}{Q(x,y,u)}=\dis \frac{du}{R(x,y,u)}. \] \item Se hallan dos integrales primeras de \'{e}ste: \[ \psi _{1}(x,y,u)=c_{1},\qquad \psi _{2}(x,y,u)=c_{2}.\qquad \] \item Se obtiene la integral buscada en la forma: \[ \Phi (\psi _{1}(x,y,u),\psi _{2}(x,y,u))=0, \] siendo $\Phi $ una funci\'{o}n arbitraria. \end{enumerate} \bejem\label{ej22} Determinar la integral de la ecuaci\'on \[ \dis \deri{u}{x}+\dis \deri{u}{y}=1 \] que depende de una funci\'on arbitraria. \enejem Se trata de una EDP de primer orden, lineal, con coeficientes constantes no homog\'enea. El sistema auxiliar de ecuaciones caracter\'{\i}sticas es \[ dx=dy=du. \] Considerando las ecuaciones $dx=dy$ y $dx =du$, sus primeras integrales tienen la forma \[ 1)\quad \psi_1 (x,y,u)=x-y=c_1 ,\qquad 2)\quad \psi_2 (x,y,z)=u-x =c_2. \] La integral (o soluci\'on general) de la EDP original es \[ 3)\qquad \Phi (c_1 ,c_2 )=\Phi (x-y,u-x) =0, \] siendo $\Phi$ una funci\'on arbitraria. De $2)$ se tiene que $u=x+c_2$. Como por $3)$ y $1)$ \[ \Phi (c_1 ,c_2 )=\Phi (x-y,c_2 ) =0, \] se tendr\'a que $c_2 =f(c_1 )=f (x-y)$, siendo $f$ es una funci\'on de clase $C^1 (\R^2 )$ arbitraria. Por tanto, %Resolviendo las ecuaciones %$x-y=c_1 $ y $u-x=c_2 $ respecto a $u$ y eliminando constantes %se tiene: \[ u=x+f (x-y). \] N\'otese en efecto que, al sustituir en la ecuaci\'on se tiene: \[ \dis \deri{u}{x}+\dis \deri{u}{y}=\dis \deri{}{x}\left( x+f(x-y)\right) +% \dis \deri{}{y}\left( x+f(x-y)\right) =1+f^{\prime }-f^{\prime }=1,\quad \forall \,f, \] es decir, una identidad, luego $u=x+f(x-y)$ es una familia (infinita) de superficies que representa la soluci\'{o}n general de la EDP. Las caracter\'{\i }sticas de la EDP son las rectas del plano de ecuaci\'{o}n $% y=x+C$, $C\in \R$. \begin{figure}[ht] \centering \includegraphics[width=0.6\textwidth]{cap1-4.eps} \caption{Caracter\'{\i}sticas de la EDP.} \label{figura1} \end{figure} %\FRAME{ftbphF}{200.75pt}{200.75pt}{0pt}{}{}{Figure }{% %\special{language "Scientific Word";type "GRAPHIC";maintain-aspect-ratio %TRUE;display "USEDEF";valid_file "T";width 200.75pt;height 200.75pt;depth %0pt;original-width 270.125pt;original-height 269.75pt;cropleft "0";croptop %"1";cropright "1";cropbottom "0";tempfilename %'C:/URJC/escet/metodos/guiones/ej2-2guiones.wmf';tempfile-properties "XNP";}} \subsubsection*{Interpretaci\'on geom\'etrica del proceso resolutivo de la EDP del ejemplo (\ref{ej22})} El proceso de resoluci\'on seguido en el ejemplo (\ref{ej22}) ha consistido en considerar el campo vectorial de clase $(C^1 (\R^3))^3 \doteq C^1 (\R% ^3)\times C^1 (\R^3)\times C^1 (\R^3)$ (es decir, cada componente del campo es de clase $C^1 (\Omega) $) definido por: \begin{equation} \label{asos} \bfm{F}(x,y,u) =P(x,y,u)\bfm{i} + Q(x,y,u)\bfm{j}+ R(x,y,u)\bfm{k} =\bfm{i}+% \bfm{j}+\bfm{k}, \end{equation} es decir, $\bfm{F}(x,y,u)=(1,1,1)$. Las \textbf{l\'{\i}neas vectoriales} de este campo (es decir, las l\'{\i}neas cuyas tangentes tienen en cada punto la direcci\'on del vector $\bfm{F}$ en dicho punto) se determinan por la condici\'on de paralelismo entre el vector $\bfm{T}=dx\bfm{i}+dy\bfm{j}+du% \bfm{k}$, dirigido por la tangente a las l\'{\i}neas buscadas (v\'ease la secci\'on en los anexos dedicada a la representaci\'on de curvas de este mismo gui\'on) y el vector $\bfm{F}=\bfm{i}+\bfm{j}+\bfm{k}$. Tal condici\'on se expresa en forma de producto vectorial de la siguiente forma: \[ \bfm{T}\wedge \bfm{F} =(dy-du)\bfm{i}+(du-dx)\bfm{j}+(dx-dy)\bfm{k} = \bfm{0}% =(0,0,0), \] que es la ecuaci\'on auxiliar $dx=dy=du$ de las caracter\'{\i}sticas de la EDP. Las l\'{\i}neas vectoriales de este campo son: \[ \psi_1 (x,y,u)=x-y=c_1, \qquad \psi_2 (x,y,u)=u-x =c_2, \] y son una familia bi-param\'etrica (pues dependen de $(c_1 ,c_2)$) de l\'{\i}neas vectoriales (las caracter\'{\i}sticas de la EDP). De esta fa\-mi\-lia se extrajo (arbitrariamente) una fa\-mi\-lia uniparam\'etrica estableciendo una dependencia continua cualquiera $\Phi (c_1 ,c_2 )=0$ entre los par\'ametros $(c_1 ,c_2 )$. Esta operaci\'on de extracci\'on (arbitraria pues $\Phi$ es una funci\'on arbitraria) de una familia uniparam\'etrica ha correspondido a la determinaci\'on de la integral de la ecuaci\'on original: \[ \Phi (x-y,u-x) = \Phi (c_1 ,c_2 )=0, \] que nos proporcion\'o la ecuaci\'on buscada de las superficies vectoriales: \[ u=u(x,y)=x+\phi (x-y). \] \es %aqui tray \subsubsection{Interpretaci\'on geom\'etrica del problema del flujo potencial: deducci\'on del m\'etodo de las trayectorias} En esta secci\'on veremos c\'omo la interpretaci\'on geom\'etrica de las EDP permite interpretar los problemas de flujo asociados a un campo de velocidades mediante los conceptos de curvas caracter\'{\i}sticas y superficie integrales. Lo que haremos ser\'a identificar las curvas caracter\'{\i}sticas con las l\'{\i}neas de corriente y las superficie integrales con la gr\'afica de la funci\'on de corriente. Deduciremos as\'{\i} una forma alternativa de determinar las l\'{\i}neas de corriente de un campo de velocidades mediante la integraci\'on de una EDO. El c\'alculo de las l\'{\i}neas de corriente mediante este m\'etodo se conoce como \textbf{m\'etodo de las trayectorias}. N\'otese que este m\'etodo se puede usar para cualquier flujo donde el campo de velocidades es conocido. No es necesario que el flujo sea bidimensional o incompresible. Tambi\'en se aplica al tratamiento de problemas de flujo no estacionario. \es Otra forma de deducir las l\'{\i}neas de corriente ser\'a mediante la resoluci\'on de un sistema de EDO lo que nos proporcionar\'a una representaci\'on param\'etrica de estas curvas. Recu\'erdese que en el ejemplo (\ref{ej15}) las l\'{\i}neas de corriente se determinaron s\'olo tras la determinaci\'on de la funci\'on de corriente mediante integraci\'on directa de las EDP que la definen. \es En la secci\'on anterior vimos que, dada una EDP de primer orden, si una superficie $S$ definida por $z =\psi(x,y)$, es la uni\'on de curvas caracter\'{\i}sticas, entonces $S$ es una superficie integral (es decir una soluci\'on de la EDP). Por otra parte, cualquier superficie integral es uni\'on de curvas caracter\'{\i}sticas. Al trabajar con problemas de flujo las curvas caracter\'{\i}sticas se denominan \textbf{l\'{\i}neas de corriente% }\footnote{% En mec\'anica de medios continuos se distingue claramente entre l\'{\i}neas de campo (trayectorias) y l\'{\i}neas de corriente. Sin embargo si el campo de velocidades es estacionario, las l\'{\i}neas de campo y l\'{\i}neas de corriente son iguales. Trataremos, en este tema, tan s\'olo este caso (es decir, estudiaremos s\'olo reg\'{\i}menes de flujo estacionarios).}. Las superficies formadas por las l\'{\i}neas de corriente del campo de velocidades se llaman \textbf{superficies vectoriales} y la gr\'afica de la funci\'on de corriente es una de ellas. \es Siendo $\bfm{N}$ un vector normal a la superficie vectorial, esta superficie se caracteriza por la ecuaci\'on $\bfm{N}\cdot \bfm{v} =0$, pues el vector $% \bfm{N}$, que tiene la direcci\'on de la normal a la superficie, es ortogonal al vector $\bfm{v}$ del campo en todo punto de \'esta. \es Si la superficie vectorial se determina expl\'{\i}citamente por la ecuaci\'on $z=\psi(x,y)$, entonces el vector normal es: \[ \bfm{N}=\dis \deri{\psi}{x}\bfm{i}+\deri{\psi}{y}\bfm{j} -\bfm{k} =(\psi_x ,\psi_y , -1), \] y la condici\'on de ortogonalidad $\bfm{N}\cdot \bfm{v} =0$, toma la forma de la ecuaci\'on: \[ v_x \deri{\psi}{x}+v_y \deri{\psi}{y}=0. \] \es La idea b\'asica de la interpretaci\'on geom\'etrica del problema propuesto en el ejemplo (\ref{ej15}) (determinaci\'on de las l\'{\i}neas de corriente de un campo de velocidades plano dado) %(que haremos en el caso bidimensional) consiste por tanto, en asociar a la ecuaci\'on de primer orden, lineal homog\'enea, \[ P(x,y )\deri{\psi }{x}+Q(x,y )\deri{\psi }{y}=0, \] el campo vectorial de velocidades, \[ \bfm{v}(x,y )=v_x (x,y)\bfm{i} + v_y (x,y)\bfm{j}. \] La ecuaci\'on que caracteriza la funci\'on de corriente $\psi $ asociada a un campo de velocidades $\bfm{v}$ es: \[ \bfm{v}\cdot \nabla \psi = v_x \deri{\psi }{x}+v_y \deri{\psi }{y}=0. \] Puesto que el campo dado era $(v_x ,v_y )=(x,-y)$, se obtiene la EDP (de primer orden lineal homog\'enea): \[ x \deri{\psi }{x}-y \deri{\psi }{y}=0. \] Recordando la definici\'on de $\psi$ dada en (\ref{funcor}): \[ \deri{\psi }{x} =-v_y ,\qquad \deri{\psi }{y} =v_x, \] se deduce que $\psi$ es una superficie integral (soluci\'on) de la EDP de primer orden. \es Las \textbf{l\'{\i}neas vectoriales} de este campo (es decir, las l\'{\i}neas cuyas tangentes tienen en cada punto la direcci\'on del vector $% \bfm{F}$ en dicho punto) se interpretan como las \textbf{l\'{\i}neas de corriente} del campo de velocidades y representan las \textbf{curvas caracter\'{\i}sticas} de la EDP. Se determinan por la condici\'on de paralelismo entre el vector $\bfm{T}=\bfm{i}dx+\bfm{j}dy+\bfm{k}d\psi $ (vector director de la tangente a las l\'{\i}neas buscadas) y el vector $% \bfm{v}$. Utilizando el producto vectorial esta condici\'on se escribe en la forma: \[ \bfm{T}\wedge \bfm{v}= (Rdy-Qdu)\bfm{i}+(Pdu-Rdx)\bfm{j}+(Qdx-Pdy)\bfm{k} \] Puesto que $P=v_x$, $Q=v_y$ y $R=0$, se tiene: \[ \bfm{T}\wedge \bfm{v}= v_y d\psi \bfm{i}+v_x d\psi \bfm{j}+(v_y dx- v_x dy)% \bfm{k}= \bfm{0}. \] A lo largo de una curva caracter\'{\i}stica se tiene por tanto: \begin{equation} \label{corecca} \dis \frac{dx}{v_x}= \dis \frac{dy}{v_y} \end{equation} y la soluci\'on $\psi (x,y)$ es constante, $\psi \equiv C$, a lo largo de una caracter\'{\i}stica pues su tasa de cambio (dada por $\bfm{v}\cdot \nabla \psi$) es nula por la definici\'on y construcci\'on de $\psi$. El hecho de que $\psi$ es constante se denota en la forma: \[ \dis \frac{dx}{v_x}= \dis \frac{dy}{v_y}=\dis \frac{d\psi }{0}. \] Las ecuaciones (\ref{corecca}) se conocen con el nombre de ecuaciones caracter\'{\i}sticas de la EDP y su resoluci\'on nos proporciona las l\'{\i}neas de corriente del campo. \es \subsubsection*{Ecuaciones param\'etricas de las l\'{\i}neas de corriente} El m\'etodo de las trayectorias para la determinaci\'on de las l\'{\i}neas de corriente consiste en la resoluci\'on de la ecuaci\'on (\ref{corecca}) previa introducci\'on de un par\'ametro. Este procedimiento permite obtener propiamente las ecuaciones param\'etricas de las l\'{\i}neas de corriente en t\'erminos de trayectorias. \es En efecto, introduciendo un par\'ametro $\theta$ podemos escribir la condici\'on (\ref{corecca}) (que define las curvas caracter\'{\i}sticas de la EDP) en la forma: \[ \dis \frac{dx}{v_x}= \dis \frac{dy}{v_y}=\dis \frac{d\psi }{0} =d\theta, \] para obtener el sistema de ecuaciones diferenciales ordinarias: \[ \dis \left\{\quad \dis \frac{dx}{d\theta}=P(x,y)=v_x ,\qquad \dis \frac{dy}{% d\theta}=Q(x,y)=v_y ,\qquad \dis \frac{d\psi}{d\theta}=R(x,y)=0,\quad\right. \] es decir, \[ \dis \left\{\quad \dis \frac{dx}{d\theta}=x ,\qquad \dis \frac{dy}{d\theta}% =-y ,\qquad \dis \frac{d\psi}{d\theta}=0.\quad\right. \] El sistema es desacoplado (es decir, podemos resolver las ecuaciones que lo componen de manera independiente, de una en una). Puesto que se trata de EDO li\-nea\-les de primer orden separables se obtiene (separando variables) la representaci\'on param\'etrica de las l\'{\i}neas de corriente: \[ x(\theta )=c_1 \dis e^{\theta},\qquad y(\theta )=c_2 \dis e^{-\theta},\qquad \psi (\theta) =c_3. \] Los valores de $c_1$, $c_2$ y $c_3$ se determinan imponiendo unas condiciones ulteriores que complementan la EDP. Analizaremos tales situaciones en las secciones siguientes, al introducir la definici\'on de Problema de Cauchy asociado a una EDP de primer orden. \subsubsection*{El problema de Cauchy} Si entre las infinitas superficies vectoriales del campo $\bfm{F}$ se deseara determinar la superficie que pasa por una l\'{\i}nea dada, definida a su vez por las ecuaciones $\Phi_1 (x,y,u)=0$, $\Phi_2 (x,y,u)=0$, entonces la funci\'on $\Phi$ ya no ser\'a arbitraria sino que se determina $\Phi (c_1 ,c_2 )$ por eliminaci\'on de $x$, $y$, $u$ de las ecuaciones: \[ \Phi_1 (x,y,u)=0,\quad \Phi_2 (x,y,u)=0,\quad \psi_1 (x,y,u)=c_1 ,\quad \psi_2 (x,y,u)=c_2, \] a trav\'es del cual se tiene la ecuaci\'on $\Phi (c_1 ,c_2 )=0$ y la integral buscada ser\'a \[ \Phi (\psi_1 (x,y,u), \psi_2 (x,y,u) )=0, \] Para poder explicar con rigor este proceso de selecci\'on de soluciones precisamos antes la definici\'on de Problema de Cauchy para EDP cuasilineales de primer orden. \subsubsection{El problema de Cauchy para ecuaciones cuasilineales} \label{pcc} Para seleccionar una entre las infinitas superficies integrales de una EDP cuasilineal de primer orden seguiremos el siguiente camino que nos llevar\'a a la definici\'on del problema de Cauchy para EDP cuasilineales de primer orden, que no es otra cosa que un m\'etodo para generar soluciones a partir de la prescripci\'on de un conjunto de funciones que representan los datos del problema (digamos la informaci\'on f\'{\i}sica o experimental) sobre el fen\'omeno a estudiar. Es decir, buscamos asociar soluciones a datos mediante una aplicaci\'on entre espacios vectoriales (el espacio de los datos como espacio inicial y el espacio de las soluciones como espacio de llegada). El espacio de las soluciones se describe entonces mediante el espacio (usualmente m\'as simple) de los datos\footnote{% No queremos (ni podemos) entrar en detalles sobre este tipo de problemas propio de la teor\'{\i}a de la regularidad de las EDP. S\'olo se\~nalamos que la caracterizaci\'on del espacio de soluciones de una EDP mediante la informaci\'on sobre los datos del problema representa uno de los problemas m\'as interesantes de la teor\'{\i}a de las ecuaciones en derivadas parciales.}. \es Una manera simple de seleccionar una funci\'on $u(x,y)$ en el conjunto infinito de soluciones de (\ref{epribis}) \[ P(x,y,u)\deri{u}{x}+Q(x,y,u)\deri{u}{y}=R(x,y,u), \] consiste en prescribir una curva $\Gamma$ en el espacio tridimensional que debe estar contenida en la superficie integral $z=u(x,y)$. Sea $\Gamma$ una curva dada param\'etricamente mediante: \begin{equation} \label{jo51} x=f(s),\qquad y=g(s),\qquad u=h(s) \end{equation} Estamos buscando una soluci\'on $u(x,y)$ de (\ref{epribis}), tal que la relaci\'on \begin{equation} \label{jo52} h(s)=u(f(s),g(s)) \end{equation} sea una identidad. \begin{dfn}[Problema de Cauchy] Sea dada la ecuaci\'on cuasilineal de primer orden (\ref{epribis}). Un problema de Cauchy asociado a la ecuaci\'on (\ref{epribis}), consiste en encontrar la funci\'on $u(x,y)$ asociada a los datos $f(s)$, $g(s)$ y $h(s)$ mediante (\ref{jo51}). \end{dfn} Obviamente se entiende por funci\'on asociada a los datos a una funci\'on que satisface la EDP y la condici\'on (\ref{jo52}). N\'otese que es posible dar muchas parametrizaciones distintas de la misma curva $\Gamma$ eligiendo distintos par\'ametros $s$. Sin embargo la introducci\'on de un par\'ametro diferente $\sigma$ tal que $s=\phi (\sigma)$ no cambia la soluci\'on del problema de Cauchy. En cuanto al tipo de soluci\'on, nos contentaremos con \textbf{soluciones locales}\footnote{% Es una de las caracter\'{\i}sticas m\'as notables de las EDP de primer orden hiperb\'olicas: la existencia local, es decir hasta un tiempo finito.} definidas para $(x,y)$ en un entorno del punto $x_0 =f(s_0 )$, $y_0 =g(s_0 )$% . En muchos problemas f\'{\i}sicos la variable $y$ se identifica con el tiempo y $x$ con la posici\'on en el espacio. Adem\'as en dichos problemas es frecuente que $y_0$ se tome como inicio del intervalo temporal en el que se plantea el problema. Es entonces natural proponerse resolver el problema de determinar una soluci\'on $u(x,y)$ a partir del conocimiento de su \emph{% valor inicial} en el tiempo $y=0$: \begin{equation} \label{jo53} u(x,0)=u_0 (x). \end{equation} \begin{dfn}[Problema de Valor Inicial] Sea dada la ecua\-ci\'on cua\-si\-li\-ne\-al de primer orden (\ref{epribis}). Un problema de valor inicial para la ecuaci\'on consiste en encontrar la funci\'on $u(x,y)$ que satisface la ecuaci\'on (\ref{epribis}) y la condici\'on inicial (\ref{jo53}). \end{dfn} N\'otese que un problema de valor inicial (PVI) es un caso especial de un problema de Cauchy en el cual la curva $\Gamma$ tiene la representaci\'on \begin{equation} \label{jo54} x=s,\qquad y=0,\qquad u=u_0 (s). \end{equation} Sea $\Omega \subset\R^3 $ y sea $\bfm{F}=(P,Q,R)$ un campo vectorial de clase $(C^1 (\Omega))^3$. Sea dada adem\'as una curva inicial $\Gamma_0$ en la forma param\'etrica (\ref{jo51}). Es posible entonces demostrar que el problema de Cauchy admite soluci\'on si se verifica la siguiente condici\'on suficiente: \begin{equation} \label{jo514} \Delta =\left| \begin{array}{cc} f^{\prime}(s_0 ) & g^{\prime}(s_0 ) \\[0.3cm] \noalign{\smallskip} P(x_0 ,y_0 ,u_0 ) & Q(x_0 ,y_0 ,u_0 ) \end{array} \right| =Q_0 f_0^{^{\prime}} -P_0 g^{^{\prime}}_0 \neq 0. \end{equation} En el caso del problema de valor inicial se tiene (aplicando (\ref{jo54}) con $f(s)=s$, $g(s)=0$): \begin{equation} \label{jo5144} \Delta =\left| \begin{array}{cc} 1 & 0 \\[0.3cm] \noalign{\smallskip} P(x_0 ,y_0 ,u_0 ) & Q(x_0 ,y_0 ,u_0 ) \end{array} \right|=Q(x_0 ,y_0 ,u_0 ) \neq 0. \end{equation} La condici\'on de no anulaci\'on del determinante jacobiano $\Delta $ garantiza la existencia (local pues se debe a una aplicaci\'on del teorema de la funci\'on impl\'{\i}cita v\'alida en un entorno del punto $(x_0 ,y_0 ,u_0 )\in\R^3$) de una superficie integral $u=u(x,y)$. La unicidad se deduce del teorema (\ref{unidos}). N\'otese que la condici\'on (\ref{jo514}) es fundamental para la existencia de una \'unica soluci\'on $u(x,y)$ de clase $% C^1 $ pues se puede demostrar que $\Delta=0$ es incompatible con la existencia de tales soluciones a menos que la curva prefijada $\Gamma_0$ sea caracter\'{\i}stica (en cuyo caso se tendr\'an infinitas soluciones). \es Acabamos la parte te\'orica con el siguiente resultado de existencia y unicidad para el problema de Cauchy asociado a una curva inicial $\Gamma_0$ dada en la forma param\'etrica: \begin{equation} \label{parapi} x=f(s),\qquad y=g(s),\qquad u=u_0 (s), \end{equation} siendo $f,g$ funciones derivables con continuidad. Se tiene entonces el siguiente teorema: \beteor\label{jacoteo} Sea dada la ecuaci\'on en derivadas parciales \[ P(x,y,u)\deri{u}{x} +Q(x,y,u)\deri{u}{y} =R(x,y,u), \] y sea $\Gamma_0 $ una curva inicial dada por (\ref{parapi}) con la condici\'on que $(f^{\prime})^2 +(g^{\prime})^2 \neq 0$ (es decir $% f^{\prime} $ y $g^{\prime}$ no ambas nulas simult\'aneamente). Sea adem\'as, \[ \Delta =Q_0 x^{^{\prime}}_0 -P_0 y^{^{\prime}}_0 = Q_0 f^{^{\prime}}_0 - P_0 g^{^{\prime}}_0, \] el determinante jacobiano. Se tiene entonces: \begin{enumerate} \item Si $\Delta \neq 0$ en toda $\Gamma _{0}$ entonces existe una \'{u}nica soluci\'{o}n del problema de Cauchy. \item Si $\Delta =0$ en toda $\Gamma _{0}$ y $\Gamma _{0}$ es una curva caracter\'{\i }stica entonces existen infinitas soluciones del problema de Cauchy. \item Si $\Delta =0$ en toda $\Gamma _{0}$ y $\Gamma _{0}$ \textbf{no} es una curva caracter\'{\i }stica entonces no existe soluci\'{o}n del problema de Cauchy. \end{enumerate} \enteor Lo anterior se puede interpretar de la siguiente forma: si el problema de Cauchy (o el PVI) tienen soluci\'on y $\Delta =0$ a lo largo de $\Gamma_0$ entonces la curva $\Gamma_0$ es ella misma una curva caracter\'{\i}stica de la EDP. Pero si $\Gamma_0$ es una curva caracter\'{\i}stica entonces infinitas superficies integrales pasan a trav\'es de (contienen) $\Gamma_0$. Observemos que si la funci\'on $u$ no es de clase $C^1$ (en un entorno de $% \Gamma_0$ y en la misma $\Gamma_0$) entonces no es posible deducir, a partir de $\Delta =0$, que la curva $\Gamma_0$ es caracter\'{\i}stica. En efecto, pueden existir soluciones de la EDP que pasen por una curva no caracter\'{\i}stica $\Gamma_0$ y para las cuales $\Delta =0$. \es N\'otese finalmente que este teorema no cubre el caso en el cual $\Delta =0$ s\'olo en alg\'un punto de $\Gamma_0$ puesto que en este caso las soluciones no ser\'{\i}an de clase $C^1$. Aparecer\'{\i}an soluciones d\'ebiles. Existe una teor\'{\i}a al respecto que no ser\'a aqu\'{\i} considerada. Una referencia a un posible tratamiento general de este caso se encuentra en el libro de Courant-Hilbert, pag 65. En general es suficiente considerar por separado las regiones de degeneraci\'on de los coeficientes de la EDP (es decir donde se anulan) y utilizar el an\'alisis local mediante el estudio del determinante jacobiano $\Delta$ a lo largo de $\Gamma_0$ en las regiones de no degeneraci\'on. \bejem[Problema de Cauchy] Hallar la superficie integral de la ecuaci\'on: \[ \dis x\deri{u}{y}-y\deri{u}{x}=0, \] que pasa por la curva inicial $\Gamma_0$ dada por $x=0$, $u=y^2$. \enejem Se trata de una EDP de primer orden, lineal, con coeficientes variables, homog\'enea. Para que la ecuaci\'on no pueda degenerar imponemos la condici\'on $x^2 +y^2 \neq 0$. El problema de Cauchy est\'a bien planteado (existe una \'unica soluci\'on). En efecto, notamos que, parametrizando la curva dada en la forma: \[ x=f(s)=0, \qquad y=g(s)=s,\qquad u=u_0 (s)=h(s)=s^2, \] se tiene $f^{\prime}(s)=0$, $g^{\prime}(s)=1$. Considerando que $P=-y$, $Q=x$ se deduce $\Delta =Qf^{\prime}-Pg^{\prime}=y \neq 0$ si $y\neq 0$ y esto es cierto a lo largo de la curva $\Gamma_0$ para todo $s\neq 0$. Si $s=0$ entonces $x=y=0$ pero este punto ya hab\'{\i}a sido excluido con la condici\'on de no degeneraci\'on. Aplicando el teorema (\ref{jacoteo}) se tiene asegurada la existencia de una \'unica superficie integral que contiene la curva inicial $\Gamma_0$. %(que no es caracter\'{\i}stica) \es El campo vectorial a estudiar es: \[ \bfm{F} (x,y,u)=(P (x,y,u),Q(x,y,u),R(x,y,u))=(-y, x , 0). \] La ecuaci\'on auxiliar $\bfm{T}\wedge \bfm{F}=\bfm{0}$ nos conduce en este caso a: \[ \dis \frac{dx}{-y}= \dis \frac{dy}{x}=\dis \frac{du}{0}. \] La notaci\'on $du /0$ significa que $du =0$, es decir, que $u$ es constante a lo largo de las caracter\'{\i}sticas. Esta notaci\'on (dividir por cero) se aplica tambi\'en en el caso $P\equiv 0$ o $Q\equiv 0$. A partir de la ecuaci\'on auxiliar se pueden obtener las siguientes integrales primeras (caracter\'{\i}sticas o l\'{\i}neas vectoriales del campo o l\'{\i}neas de corriente si el campo $\bfm{F}$ se considera un campo de velocidades estacionario plano $\bfm{F}=\bfm{v}=(v_x ,v_y )$): \[ xdx =-y dy ,\qquad \Longrightarrow \qquad \dis \frac{1}{2}x^2 =-\frac{1}{2}% y^2 +K \qquad \Longrightarrow \qquad \dis x^2 +y^2 =2K =C_2, \] es decir, $\psi_2 (x,y,u)=x^2 +y^2 =c_2$ y \[ du =0 \qquad \Longrightarrow \qquad \dis u=C_1, \] o sea, $\psi_1 (x,y,u)=u=c_1$. Hemos obtenido: \[ \psi_1 (x,y,u)=u=c_1, \qquad \psi_2 (x,y,u)=x^2 +y^2 =c_2. \] N\'otese que la curva $\Gamma_0$ no es (una curva) caracter\'{\i}stica pues no satisface ninguna de las ecuaciones $\psi =c_1$, $\psi =c_2$. Considerando las condiciones $x=0$, $u=y^2$ se tiene el siguiente sistema de ecuaciones: \[ u=c_{1}\quad x^{2}+y^{2}=c_{2}\quad x=0\quad u=y^{2}, \] y se deduce que (eliminando las variables $x$, $y$, $u$) $c_{1}=c_{2}$. Por ello la superficie integral buscada ser\'{a} \[ 0=c_{1}-c_{2}=\Phi (c_{1},c_{2})=\Phi (u,x^{2}+y^{2})=u-(x^{2}+y^{2}), \] %dada por $\Phi =0$, es decir, \[ u=x^{2}+y^{2}. \] N\'{o}tese que evidentemente al seccionar la superficie con el plano $x=0$ se obtiene la curva prefijada $u=y^{2}$. En t\'{e}rminos de la mec\'{a}nica de fluidos, la superficie integral obtenida corresponde a la gr\'{a}fica de la funci\'{o}n de corriente asociada al campo de velocidades. \begin{figure}[ht] \centering \includegraphics[width=0.6\textwidth]{cap1-5.eps} \caption{El problema de Cauchy.} \label{figura1} \end{figure} %\FRAME{ftbphF}{% %200.75pt}{200.75pt}{0pt}{}{}{Figure }{\special{language "Scientific %Word";type "GRAPHIC";maintain-aspect-ratio TRUE;display "USEDEF";valid_file %"T";width 200.75pt;height 200.75pt;depth 0pt;original-width %270.125pt;original-height 269.75pt;cropleft "0";croptop "1";cropright %"1";cropbottom "0";tempfilename %'C:/URJC/escet/metodos/guiones/ej2-3.wmf';tempfile-properties %"XNP";}} \es Obs\'ervese adem\'as que el problema quedar\'{\i}a indeterminado si la curva dada por $\Phi_1 =\Phi_2 =0$ fuese caracter\'{\i}stica ya que en este caso diferentes superficies integrales pasar\'{\i}an por dicha curva. Es decir: existir\'{\i}an infinitas soluciones. Encontraremos concretamente esta situaci\'on en el siguiente ejemplo: %que ocurre si la curva prefijada es una %caracter\'{\i}stica de la EDP \bejem[Problema de Cauchy] Hallar la superficie integral de la ecuaci\'on: \[ \dis x\deri{u}{y}-y\deri{u}{x}=0, \] que pasa por la circunferencia $u=1$, $x^{2}+y^{2}=4$. \enejem Puesto que la l\'{\i }nea dada es caracter\'{\i }stica, el problema es indeterminado, es decir, existen infinitas soluciones (superficies) que pasan por la circunferencia dada. Por ejemplo los paraboloides de revoluci\'{o}n: \[ u=x^{2}+y^{2}-3,\qquad 4u=x^{2}+y^{2},\qquad u=-x^{2}-y^{2}+5, \] son soluciones pues corresponden a las superficies: \[ \Phi (c_{1},c_{2})=c_{2}-c_{1}-3=0,\qquad \Phi (c_{1},c_{2})=c_{2}-4c_{1}=0,\qquad \Phi (c_{1},c_{2})=c_{1}+c_{2}-5=0. \] En efecto, cualquier superficie de revoluci\'{o}n $u=\dis \Phi (x^{2}+y^{2})$, cuyo eje de rotaci\'{o}n coincida con el eje $Oz$, es superficie integral de la EDP. Tambi\'{e}n la esfera $x^{2}+y^{2}+u^{2}=5$ es soluci\'{o}n pues corresponde a la superficie: \[ \Phi (c_{1},c_{2})=c_{1}^{2}+c_{2}-5=0. \] El problema de Cauchy anterior estaba mal planteado (pues existen infinitas soluciones). N\'{o}tese que, parametrizando la curva dada en la forma: $$ x=f(\theta )=2\cos \theta,\qquad y=g(\theta )=2\sin \theta,\qquad u=u_{0}(\theta )=1, $$ se tiene, $f^{\prime }(\theta )=-2\sin \theta $, $g^{\prime }(\theta )=2\cos \theta $. Considerando que $P=-y$, $Q=x$ se deduce $\Delta =Qf^{\prime }-Pg^{\prime }=-4\sin \theta \cos \theta +4\sin \theta \cos \theta \equiv 0$, $\forall \,\theta $. \begin{figure}[ht] \centering \includegraphics[width=0.6\textwidth]{cap1-6.eps} \caption{Problema mal planteado: existen dos soluciones del mismo problema de Cauchy.} \label{figura1} \end{figure} %\FRAME{ftbphF}{200.75pt}{200.75pt}{0pt% %}{}{}{Figure }{\special{language "Scientific Word";type %"GRAPHIC";maintain-aspect-ratio TRUE;display "USEDEF";valid_file "T";width %200.75pt;height 200.75pt;depth 0pt;original-width 270.125pt;original-height %269.75pt;cropleft "0";croptop "1";cropright "1";cropbottom "0";tempfilename %'C:/URJC/escet/metodos/guiones/ej2-4.wmf';tempfile-properties "XNP";}} \es Hasta ahora hemos considerado el caso en que la expresi\'on de la curva inicial ven\'{\i}a dada en coordenadas cartesianas mediante un sistema de dos ecuaciones, cuya soluci\'on (la curva) es la intersecci\'on de dos superficies (las ecuaciones). Consideraremos ahora el caso en el que la curva inicial se expresa en forma param\'etrica. \subsubsection{El caso param\'etrico} Si la ecuaci\'on de la curva $\Gamma_0 $, por la cual se exige trazar la superficie integral de la ecuaci\'on: \[ \dis P(x,y,u)\deri{u}{x}+ \dis Q(x,y,u)\deri{u}{y}=R(x,y,u), \] se proporciona en forma param\'etrica: \[ \Gamma_0 =\{\quad x_0 =x_0 (s),\qquad y_0 =y_0 (s),\qquad u_0 =u_0 (s), \] entonces, es tambi\'en conveniente buscar la soluci\'on en forma param\'etrica% \footnote{% V\'ease el tema 12 de la asignatura de primer curso (y tambi\'en los anexos a este gui\'on) para la definici\'on de una superficie param\'etrica.} \[ x=x(t,s),\qquad y=y(t,s),\qquad u=u(t,s). \] Para ello se introduce un par\'ametro $t$ en el sistema (\ref{ecca}) que determina las caracter\'{\i}sticas, haciendo \begin{equation} \label{eccapar} \dis \frac{dx}{P(x,y,u)}= \dis \frac{dy}{Q(x,y,u)}=\dis \frac{du}{R(x,y,u)} = dt. \end{equation} Para que las caracter\'{\i}sticas pasen por la curva dada, se busca la soluci\'on del sistema (\ref{eccapar}) que satisface (para $t=0$ o $t=T_0$) las condiciones iniciales: \[ x_0 =x_0 (s)=x (T_0 ,s),\qquad y_0 =y_0 (s)=y(T_0 ,s),\qquad u_0 =u_0 (s) =u(T_0 ,s). \] Para estas condiciones iniciales (y para $s$ fija) obtenemos una caracter\'{\i}stica que pasa por un punto (fijado) de la curva. Cuando $s$ es variable se obtiene la familia biparam\'etrica de caracter\'{\i}sticas: \[ x=x(t,s),\qquad y=y(t,s),\qquad u=u(t,s), \] que pasan por los puntos de la curva dada (en este caso se considera que la curva dada no es caracter\'{\i}stica). El conjunto de puntos que pertenece a esta familia de caracter\'{\i}sticas forma precisamente la integral buscada. \es \bejem Sea dada la ecuaci\'on: \[ \dis \deri{u}{x}-\dis \deri{u}{y}=1. \] Clasificar la EDP, determinar el campo asociado y hallar la superficie integral que pasa por la curva: \[ x_0 =s,\qquad y_0 =s^2 ,\qquad u_0 =s^3. \] \enejem Se trata evidentemente de una EDP de primer orden, lineal, no homog\'enea con coeficientes constantes. Est\'a asociada al campo $F=(1,-1,1)$. El sistema de ecuaciones que determina las caracter\'{\i}sticas tiene la forma: \[ dx=-dy=du=dt. \] Su soluci\'on general es: \[ x=t+c_1 ,\qquad y =-t +c_2 ,\qquad u=t+c_3. \] Las constantes arbitrarias se determinan mediante las condiciones iniciales: \[ c_1 =s,\qquad c_2 =s^2 ,\qquad c_3 =s^3, \] y sustituyendo en la soluci\'on general se tiene: \[ x=t+s ,\qquad y =-t +s^2 ,\qquad u=t+s^3. \] \es \subsubsection{$^*$ Parametrizaci\'on mediante la longitud de arco} Consideraremos EDP de primer orden en dos variables independientes. La familia m\'as general se puede escribir en la forma: \[ A\deri{u}{x}+B\deri{u}{y}=C. \] Si $A=A(x,y)$, $B=B(x,y)$ y $C=C(x,y,u)$ es lineal en $u$ la ecuaci\'on es \textbf{lineal}. En los dem\'as casos es \textbf{no lineal}\footnote{% Una clasificaci\'on m\'as precisa, clasifica las ecuaciones no lineales en semi-lineales, cuasi-lineales, completamente no lineales y doblemente no lineales dependiendo de las dependencias funcionales de las funciones coeficientes} En cada punto del plano $x,y$ podemos definir un vector unitario: \[ \bfm{s}\equiv \left(\frac{A}{\sqrt{A^2 +B^2}}, \frac{B}{\sqrt{A^2 +B^2}} \right), \] y escribir la PDE de primer orden en la forma: \[ \bfm{s}\cdot \nabla u =\frac{C}{\sqrt{A^2 +B^2}}\equiv D. \] Fijada una curva inicial (que no coincida con una caracter\'{\i}stica) podemos dibujar en el plano, para cada punto de la curva inicial, una trayectoria que es tangente en cada punto al vector $\bfm{s}$. La pendiente de la tangente (en cada punto) es: \begin{equation} \label{ec} \frac{dy}{dx}=\frac{B}{A} \end{equation} y es la EDO verificada por la trayectoria. Estas trayectorias se llaman \textbf{caracter\'{\i}sticas}. Denotamos con $\sigma$ a la longitud de arco% \footnote{% V\'ease el tema 12, secci\'on 10 del gui\'on de la asignatura del primer curso para la definici\'on de este concepto.} a lo largo de una caracter\'{\i}stica. Supongamos ahora que los coeficientes $A$, $B$ y $C$ son constantes reales. Se tiene entonces: \[ \bfm{s}=\left( \frac{dx}{d\sigma},\frac{dy}{d\sigma}\right). \] Este resultado se puede comprobar f\'acilmente definiendo una parametrizaci\'on de las curvas caracter\'{\i}sticas en la forma: \[ \bfm{r}(t)=x(t)\bfm{i}+y(t)\bfm{j},\quad t\geq t_0 =0, \] luego, \[ \bfm{r}^{\prime}(t)=x^{\prime}(t)\bfm{i}+y^{\prime}(t)\bfm{j},\qquad \| % \bfm{r}^{\prime}(t)\| =\sqrt{(x^{\prime})^2 +(y^{\prime})^2 }, \] y por tanto, puesto que las ecuaciones caracter\'{\i}sticas vienen dadas por (param\'etricamente): \[ \dis \left\{ \quad\frac{dx}{dt}=A,\qquad \frac{dy}{dt}=B, \right. \] se tiene que la relaci\'on entre el par\'ametro $t$ y el par\'ametro longitud de arco es: \[ \sigma \doteq \dis \int_0^t \| \bfm{r}^{\prime}(t) \| dt = \dis \int_0^t (% \sqrt{A^2 +B^2 })dt =(\sqrt{A^2 +B^2})t, \] luego la diferencial de longitud de arco es: \[ d\sigma = \dis \| \bfm{r}^{\prime}(t) \| dt = \dis (\sqrt{A^2 +B^2 })dt. \] Por lo anterior, escribimos entonces $\bfm{s}\cdot \nabla u=D$ en la forma: \begin{equation} \label{ecc} \frac{du}{d\sigma}=D. \end{equation} Cuando $A(x,y)$, $B(x,y)$ son funciones conocidas de las variables independientes, podemos integrar primero (\ref{ec}) para encontrar las caracter\'{\i}sticas y despu\'es (\ref{ecc}) para obtener $u$. Si $A(x,y,u)$% , $B(x,y,u)$ dependen de $u$ (pero no de sus derivadas) entonces las ca\-rac\-te\-r\'{\i}s\-ti\-cas no son conocidas \emph{a priori} y hay que resolver el problema acoplado (\ref{ec}), (\ref{ecc}) (generalmente con un m\'etodo num\'erico en diferencias finitas, ver Mei, pag 21) para encontrar las caracter\'{\i}sticas y la inc\'ognita $u$. \es Concluimos esta secci\'on observando que el esquema de resoluci\'on indicado para el caso bidimensional se puede generalizar al caso $(n+1)-$dimensional. Detalles se pueden encontrar en el libro de Elsgoltz, cap\'{\i}tulo 5 pag 252 o en el libro de Courant-Hilbert, pag 69. \subsubsection{$^*$ Un ejemplo de formaci\'on de ondas de choque en una ecuaci\'on cuasilineal. Ecuaci\'on de B\"{u}rgers} Un problema de valor inicial que a menudo se toma como ejemplo para ilustrar ciertos fen\'omenos que pueden aparecer al trabajar con ecuaciones cuasilineales de primer orden es: \emph{Encontrar una funci\'on $u=u(x,y)$ que satisfaga las igualdades}: \begin{equation} \label{jo612} \left\{ \begin{array}{rcll} \dis \deri{u}{y}+u\dis \deri{u}{x} & = & 0, & x\in\R,\quad y>0, \\[0.3cm] \noalign{\smallskip} u(x,0) & = & u_0 (x), & x\in\R. \end{array} \right. \end{equation} Este problema, que modeliza entre otros fen\'omenos el rompimiento de la barrera del sonido por aviones supers\'onicos fue propuesto por J.M. B\"{u}rgers y, en su honor, se conoce como el problema de B\"{u}rgers% \footnote{% En realidad la ecuaci\'on de B\"{u}rgers propiamente dicha es una ecuaci\'on parab\'olica de segundo orden a partir de la cual se puede deducir (mediante un l\'{\i}mite asint\'otico que representa la hip\'otesis de difusi\'on despreciable) la ecuaci\'on hiperb\'olica cuasilineal de primer orden que analizaremos.}. La soluci\'on $u$ de la ecuaci\'on cuasilineal se puede interpretar como un campo de velocidad longitudinal (en la direcci\'on $x$) que var\'{\i}a con el tiempo $y$. La ecuaci\'on (\ref{jo612}) afirma que cualquier part\'{\i}cula del fluido tiene aceleraci\'on nula (no hay efectos inerciales), luego tiene velocidad constante a lo largo de las trayectorias del fluido. Esto es evidente si ponemos $u=v_x =v_x (x,y)$ siendo $\bfm{v}% =(v_x (x,y) ,v_y (x,y))=(v_x (x,y),0)$ (n\'otese que la variable $y$ que aparece en las componentes del campo de velocidades denota una variable espacial) y calculamos su derivada material definida mediante el operador de derivaci\'on total (donde $t$ representa ahora el tiempo) \footnote{% Algunos libros de texto denominan a la derivada material, derivada substancial. V\'ease, por ejemplo, el libro de Costa-Novella, Vol 2, dedicado a los fen\'omenos de transporte.} \[ \dis \frac{D}{Dt} =\deri{}{t}+\bfm{v}\cdot \nabla = \dis\deri{}{t}% +\sum_{i=1}^n v_i \deri{}{x_i}, \] siendo $\bfm{v}=(v_1 ,..,v_n )$, $\bfm{x}=(x_1 ,.., x_n )$. En nuestro caso $% n=2$, $(x_1 ,x_2 )=(x,y)$, $v_1 =v_x $, $v_2 =v_y$. %y %$$ %\dis \frac{D\bfm{v}}{Dt}\doteq \dis \deri{\bfm{v}{t}+\bfm{v}\cdot %\nabla \bfm{v} %$$ La afirmaci\'on anterior equivale por tanto a verificar (se deja por ejercicio al lector) que $D\bfm{v}/Dt =0$. \es Consid\'erese nuevamente el problema (\ref{jo612}) siendo $y$ la variable temporal. La condici\'on inicial $u(x,0)=u_0 (x)$ describe la distribuci\'on inicial de la velocidad, que corresponde a la curva en el espacio $\R^3$ (v\'ease la ecuaci\'on (\ref{jo54})): \begin{equation} \label{jo54bis} x=s,\qquad y=0,\qquad u=u_0 (s). \end{equation} Introduciendo un par\'ametro $\theta$ las ecuaciones diferenciales ordinarias asociadas son: \[ \dis \frac{dx}{d\theta}=P(x,y,u)=u,\qquad \dis \frac{dy}{% d\theta}=Q(x,y,u)=1,\qquad \dis \frac{du}{d\theta}=R(x,y,z)=0. \] que combinadas con la condici\'on inicial (\ref{jo54bis}) para $\theta=0$ nos dan la representaci\'on param\'etrica de la soluci\'on $z=u(x,y)$ del PVI: \begin{equation} \label{parambur} x=s+u\theta ,\qquad y=\theta ,\qquad u=u_0 (s). \end{equation} Eliminando los par\'ametros $s,\theta$, se tiene la f\'ormula (impl\'{\i}cita) de la soluci\'on: \[ u=u_0 (s)=u_0 (x-u\theta)=u_0 (x-uy). \] \subsubsection{$^*$ Discontinuidades y soluciones d\'ebiles} En la primera parte del ejercicio anterior hemos encontrado una f\'ormula impl\'{\i}cita de la soluci\'on. Queremos analizar m\'as en detalle su naturaleza (su comportamiento cualitativo). Si proyectamos la caracter\'{\i}stica (curva en el espacio) en el plano $xy$ (es decir eliminamos $u$ en (\ref{parambur})) obtenemos la curva $C_s$ (proyecci\'on de la caracter\'{\i}stica): \[ x=s+u_0 (s)y, \] a lo largo de la cual la soluci\'on tiene el valor constante, \[ u(x,0)=u(s,0)=u_0 (s). \] F\'{\i}sicamente, $x=s+u_0 (s)y$ define el camino de una part\'{\i}cula localizada en $x=s$ en el tiempo $y=0$. Veamos que ocurre si dos caracter\'{\i}sticas tienen un punto en com\'un. Sea $(x^* ,y^* )\in\R^2$ el punto com\'un a las dos caracter\'{\i}sticas. Entonces, puesto que la ecuaci\'on de las caracter\'{\i}sticas es $x=s+u_0 (s)y$ se tendr\'a: \[ x^* =s_1 +u_0 (s_1 )y^* ,\qquad x^* =s_2 +u_0 (s_2 )y^*, \] y se deduce, $s_1 +u_0 (s_1 )y^* =s_2 +u_0 (s_2 )y^* $, es decir, \[ y^* =\dis -\frac{s_2 -s_1 }{u_0 (s_2 ) -u_0 (s_1 )}. \] Si $s_2 \neq s_1$ y $u_0 (s_2 )\neq u_0 (s_1)$ la funci\'on toma valores distintos $u_0 (s_1)$, $u_0 (s_2 )$, en el punto $(x^* ,y^*)$, luego la funci\'on es multivaluada y \emph{salta}. Hay una discontinuidad. En particular se puede demostrar que $u$ est\'a condenada a \emph{saltar} y a presentar una singularidad en su derivada parcial primera si $u_0 $ tiene soporte compacto (se entiende por ello que la funci\'on es nula fuera de un intervalo compacto), excepto en el caso trivial donde $u_0 (s)\equiv 0$. \es Pensando en $y$ como en el tiempo, para las funciones $u_0 (s)$ (dato inicial del problema) tales que $y^* >0$, esta relaci\'on define (y predice) la existencia de un instante de explosi\'on (singularidad) de la soluci\'on. Es f\'acil comprobar en efecto que, si $u_0^{^{\prime}} (s)<0$, entonces $% y^* >0$. Para todo este tipo de datos iniciales la soluci\'on $u(x,y)$ ser\'a discontinua en alg\'un tiempo $y^* >0$. La naturaleza de esta singularidad ser\'a m\'as clara si consideramos los valores de la derivada $% u_x (x,y)$ a lo largo de la caracter\'{\i}stica $x=s+u_0 (s)y$. A partir de la expresi\'on (impl\'{\i}cita) de la soluci\'on: \[ u=u_0 (x-uy), \] y aplicando derivaci\'on impl\'{\i}cita se tiene: \[ u_x =[u_0^{^{\prime}}(x-uy)][ (1-u_x y)]=u_0^{^{\prime}} -u_x u_0^{^{\prime}} y, \] y se deduce, \[ u_x =\dis \frac{u_0^{^{\prime}} (s)}{1+u_0^{^{\prime}} (s)y}, \] luego si $u_0^{^{\prime}} (s)<0$, entonces $u_x \to\infty$ para \[ y=-\dis \frac{1}{u_0^{^{\prime}} (s)}. \] El tiempo $y$ m\'as peque\~no para el cual esta relaci\'on se cumple corresponde al valor $s=s_0$ en el cual $u_0^{^{\prime}} (s)$ tiene un m\'{\i}nimo (negativo). En el instante $T=y=-1/u_0^{^{\prime}} (s)$ la soluci\'on tiene un crecimiento incontrolable y su derivada explota (se pone vertical). No puede existir una soluci\'on de clase $C^1 $ m\'as all\'a del instante $T$. N\'otese que este tipo de comportamiento es t\'{\i}pico de las ecuaciones no lineales. \es Es posible, sin embargo, definir unas soluciones d\'ebiles del PVI que existen m\'as all\'a del tiempo $T$. Para ello, debemos de dar un sentido a la EDP cuasilineal para una clase de funciones m\'as amplia que $C^1$ (o incluso continuas). Para ello se escribe la EDP \[ u_y +uu_x =0, \] en forma de divergencia (es decir mediante el operador de divergencia aplicado a funciones adecuadas), \begin{equation} \label{fica} \dis \deri{R(u)}{y}+\deri{S(u)}{x}=0, \end{equation} siendo $R(u)$ y $S(u)$ funciones tales que $S^{\prime}(u)=uR^{\prime}(u)$. Por ejemplo, podr\'{\i}amos elegir $R(u)=u$ y $S(u)=(1/2)u^2 $. N\'otese que se trata de una elecci\'on natural pues: \[ u_y +uu_x =u_y +\dis \frac{1}{2}(u^2 )_x =\mbox{div} \left(u, \frac{1}{2}u^2 \right) =\mbox{div} (R(u),S(u),)=\dis \deri{R(u)}{y}+\deri{S(u)}{x}=0. \] Integrando la relaci\'on (\ref{fica}) en $x\in (a,b)$, se tiene la \textbf{% ley de conservaci\'on}: \begin{equation} \label{vari} \dis 0=\frac{d}{dy}\int_a^b R(u(x,y))dx+S(u(b,y))-S(u(a,y)). \end{equation} Por otra parte cualquier funci\'on de clase $C^1$ que verifica (\ref{vari}) es soluci\'on de (\ref{fica}). Ahora bien, la ecuaci\'on (\ref{vari}) tiene sentido para funciones mucho m\'as generales y puede ser utilizada para definir las \textbf{soluciones d\'ebiles} de (\ref{fica}). En particular consideramos el caso donde $u$ es una soluci\'on $C^1$ de (\ref{fica}) en cada una de dos regiones del plano separadas por una curva $x=\xi (y)$ al cruzar la cual la soluci\'on experimentar\'a un salto (choque). Denotando los valores l\'{\i}mites de $u$ a la izquierda y la derecha de la curva por $% u^-$ y $u^+$, respectivamente, se tiene (a partir de (\ref{vari}) que: \[ \begin{array}{rcl} 0 & = & S(u(b,y))-S(u(a,y))\dis +\frac{d}{dy}\left(\dis \int_a^{\xi} R(u(x,y))dx + \int_{\xi}^b R(u(x,y))dx \right) \\[0.3cm] \noalign{\smallskip} & = & S(u(b,y))-S(u(a,y))\dis+\xi^{\prime}R(u^- )-\xi^{\prime}R(u^+ )- \dis \int_a^\xi \deri{S(u)}{x}dx -\int_\xi^b \deri{S (u)}{x}dx \\[0.3cm] \noalign{\smallskip} & = & -[R(u^+ )-R(u^- )]\xi^{\prime}- S(u^- )+S(u^+ ). \end{array} \] Hemos encontrado la \textbf{condici\'on de salto} (\emph{shock conditions}): \begin{equation} \label{hugo} \dis \deri{\xi}{y} =\dis \frac{S(u^+ )-S(u^- )}{R(u^+ )-R(u^- )}, \end{equation} que relaciona la velocidad de propagaci\'on $d\xi /dy$ de la discontinuidad con el tama\~no del salto de $R$ y $S$. N\'otese que (\ref{hugo}) depende no s\'olo de la EDP sino tambi\'en de la elecci\'on hecha ($R(u)=u$ y $% S(u)=(1/2)u^2 $) entre las funciones que satisfacen $S^{\prime}(u)=uR^{% \prime}(u)$. \es Con esta elecci\'on de las funciones $S$ y $R$ y para el dato inicial: \[ u(x,0)=u_0 (x)=\left\{ \begin{array}{rl} -\dis \frac{2}{3}\sqrt{3x} & x >0, \\[0.3cm] \noalign{\smallskip} 0 & x<0, \end{array} \right. \] es posible verificar que la funci\'on \[ %\begin{equation}\label{jo626} u(x,y)=\left\{ \begin{array}{rl} -\dis \frac{2}{3}\left( y+\sqrt{3x+y^2} \right) & 4x+y^2 >0, \\[0.3cm] \noalign{\smallskip} 0 & 4x+y^2 <0, \end{array} \right. \] %\end{equation} es una soluci\'on d\'ebil de la ecuaci\'on en forma de divergencia. %asociada a la condici\'on inicial %N\'otese que el dato inicial es %Multiplicando por una funci\'on $\phi \in C_0^{\infty}$ (funciones %infinitamente derivables con continuidad y a soporte compacto, es decir %nulas por fuera de una regi\'on acotada y cerrada del plano) %e integrando por partes la ecuaci\'on %en forma de divergencia se tiene la siguiente definici\'on de %soluci\'on d\'ebil: \subsubsection{$^*$ Propagaci\'on de discontinuidades en EDP de primer orden} Se considera la ecuaci\'on de primer orden, lineal, no homog\'enea de coeficientes cons\-tan\-tes: \[ \dis \deri{u}{x}+\deri{u}{y}=1,\qquad y\geq 0,\quad -\infty 0$. Es decir, determinar $% u(x,t) $ tal que: \begin{equation} \label{strikk1} \dis \left\{ \begin{array}{rcll} \dis \deri{u}{t}+V\deri{u}{x} & = & 0 & 00, \\[0.2cm] \noalign{\smallskip} u(x,0) & = & u_0 (x), & 00$ y la izquierda si $V<0$. Otra forma de verlo consiste en observar que la soluci\'on depende s\'olo de $\xi =x-Vt$. Las rectas del plano $(x,t)$ donde $\xi$ es constante se llaman caracter\'{\i}sticas. El par\'ametro $V$ tiene las dimensiones de una distancia dividida por el tiempo y se llama la velocidad de propagaci\'on a lo largo de las caracter\'{\i}sticas. Es decir que se puede interpretar la soluci\'on como una onda que se propaga con velocidad constante $V$ sin cambiar de forma a lo largo de la direcci\'on $x$ (de ah\'{\i} el nombre de ecuaci\'on de onda unidimensional). Un segundo aspecto relevante de la f\'ormula $u(x,t)=u_0 (x-Vt)$ es que tiene sentido aunque $u_0$ no sea diferenciable mientras la ecuaci\'on parece tener sentido s\'olo si $u$ es diferenciable. En general, se admitir\'an soluciones discontinuas para las EDP hiperb\'olicas\footnote{% Un ejemplo de soluci\'on discontinua es una onda de choque (shock wave), t\'{\i}pica de las ecuaciones no lineales. V\'ease la secci\'on dedicada a las soluciones discontinuas.}. \es \subsubsection{El caso lineal no homog\'eneo con coeficientes constantes} Para ilustrar con m\'as detalle el concepto de caracter\'{\i}stica consideraremos ahora la EDP hiperb\'olica m\'as general: \begin{equation} \label{strik2} u_t +V u_x +bu =f(x,t), \end{equation} siendo $V$ y $b$ constantes, complementada con la \emph{condici\'on inicial} $u(0,x)=u_0 (x)$. Se trata por tanto de resolver el problema de valor inicial \begin{equation} \label{strikk3} \dis \left\{ \begin{array}{rcll} \dis \deri{u}{t}+V\deri{u}{x} +bu & = & f(x,t) & 00, \\% [0.2cm] \noalign{\smallskip} u(x,0) & = & u_0 (x), & 00, \\[0.2cm] \noalign{\smallskip} \tilde{u}(\xi ,0) & = & u_0 (\xi ), & 0<\xi < \infty,\quad \tau =0, \end{array} \right. \end{equation} que es una EDO en $\tau$ (aunque $\xi$ sea s\'olo un par\'ametro, la funci\'on $\tilde{u}$ depende formalmente de las dos variables $(\tau ,\xi)$% ; de ah\'{\i} el significado del s\'{\i}mbolo de derivaci\'on parcial a\'un cuando se puede considerar la ecuaci\'on en el sentido de una EDO) que se complementa con la condici\'on inicial $\tilde{u}(\xi,0)=u_0 (\xi)$. El problema de valor inicial asociado se puede resolver por la f\'ormula de variaci\'on de las constantes (v\'ease la secci\'on correspondiente de los guiones de primer curso para la deducci\'on de la f\'ormula mediante el m\'etodo de Lagrange): \[ \tilde{u} (\xi ,\tau ) = u_0 (\xi ) e^{-b \tau} +\dis \int_0^\tau f(\xi +V\sigma ,\sigma )e^{-b (\tau -\sigma )}d\sigma. \] Volviendo a las variables originales tenemos una representaci\'on para la soluci\'on dada por: \begin{equation} \label{strik4} u (x ,t ) = u_0 (x-Vt ) e^{-b t} +\dis \int_0^t f(x -V(t-s),s )e^{-b (t -s )}ds. \end{equation} A partir de (\ref{strik4}) se deduce que $u(x,t)$ depende s\'olo del valor de $u_0 (x)$ en el punto $x^*$ tal que $x^* =x-Vt$ y del valor de $f(x,t)$ en todos los puntos de la caracter\'{\i}stica que pasa por $(x^* ,0)$ para $% 0\leq t^{\prime}\leq t$. %los valores de $(x' ,t')$ tales que $x' -Vt' =x-Vt$, %es decir s\'olo de los valores de $u_0 $ y $f$ %a lo largo de la caracter\'{\i}stica que pasa por el punto $(x,t)$ %para $0\leq t' \leq t$. \es Este m\'etodo de resoluci\'on se puede f\'acilmente extender a ecuaciones del tipo: \begin{equation} \label{strik5} u_t +V u_x =f(x,t,u),\qquad u(x,0)=u_0 (x), \end{equation} complementadas con $u(x,0)=u_0 (x)$. Se puede mostrar (se deja como ejercicio propuesto) que (\ref{strik5}) es equivalente a la familia de P.V.I.: \begin{equation} \label{strik6} \deri{\tilde{u}}{\tau}= f(\xi +V\tau ,\tau ,\tilde{u}), \end{equation} con $\tilde{u}(\xi,0)=u_0 (\xi)$. La relaci\'on entre la soluci\'on del problema original (\ref{strik5}) y la soluci\'on del problema (\ref{strik6}) viene dada por: \[ u(x,t)=\tilde{u}(x-Vt ,t). \] No siempre es posible resolver expl\'{\i}citamente el problema (\ref{strik6}% ). En tales casos es necesario acudir a m\'etodos num\'ericos. \subsection{Sistemas hiperb\'olicos con coeficientes constantes} Consideraremos sistemas hiperb\'olicos espacialmente unidimensionales, $\vec{% x}=x\in\R$, con coeficientes cons\-tan\-tes. La variable $\vec{U}$ es un vector de dimensi\'on $d$: \[ \vec{U}=\vec{U}(x,t)=(u_1 (x,t),..., u_d (x,t))\in\R^d ,\quad d\geq 2. \] \begin{dfn} Un sistema de la forma: \begin{equation}\label{sispon} \vec{U}_t +[A] \vec{U}_x +[B] \vec{U} =\vec{F}(x,t), \end{equation} se dice que es {\bf hiperb\'olico} si la matriz $[A]$ es diagonalizable con autovalores reales. Los autovalores $a_i $ de $[A]$ se denominan {\bf velocidades caracter\'{\i}sticas} del sistema. \end{dfn} Recu\'erdese que si $[A]$ es diagonalizable, entonces existe una matriz no singular $[P]$ tal que $[D] =[P^{-1}][A][P]$, siendo $[D] $ una matriz diagonal. \es En el caso particular de que $[B]\equiv 0$, definiendo entonces el cambio de variables $\vec{W}=[P^{-1}]\vec{U}$, se tiene: \[ \vec{W}_t +[D] \vec{W}_x =[P^{-1}]\vec{F}(x,t)=\vec{G}(t,x), \] es decir, \[ w_t^i +\lambda_i w_x^i =g^i (t,x),\qquad i=1...d, \] que es de la forma (\ref{strik2}) para las componentes de los vectores $\vec{% W}=(w^1 ,...w^d )$, $\vec{G}=(g^1 ,...g^d )$ y los autovalores $\lambda_i$, $% i=1,..,d$ de la matriz del sistema $[A]$. \es Por tanto, cuando $[B]\equiv 0$ el sistema hiperb\'olico se reduce a un sistema desacoplado de ecuaciones hiperb\'olicas escalares independientes que se resuelven por separado. Consideraremos esta situaci\'on en el siguiente ejemplo, donde supondremos $[B]\equiv 0$ y $\vec{F}(x,t)\equiv 0$ (caso homog\'eneo). \bejem Se considera el PVI dado por el sistema hiperb\'olico: \[ \left\{ \begin{array}{rcl} \dis u_t +2u_x +v_x & = & 0, \\[0.3cm] \noalign{\smallskip} \dis v_t +u_x +2v_x & = & 0, \end{array} \right. \] y las condiciones iniciales: \[ u (x,0)=u_0 (x)=\left\{ \begin{array}{rl} 1 & |x|\leq 1 \\[0.1cm] \noalign{\smallskip} 0 & |x|>1 \end{array} \right. ,\qquad v(x,0)=v_0 (x)=0. \] Encontrar su soluci\'on. \enejem Se utiliza la teor\'{\i}a matricial, concretamente la t\'ecnica de diagonalizaci\'on de matrices cuadradas. \es El sistema se puede escribir en la forma: \[ \left( \begin{array}{c} u \\[0.3cm] \noalign{\smallskip} v \end{array} \right)_t + \left( \begin{array}{cc} 2 & 1 \\[0.3cm] \noalign{\smallskip} 1 & 2 \end{array} \right) \left( \begin{array}{c} u \\[0.3cm] \noalign{\smallskip} v \end{array} \right)_x =0, \] siendo $\vec{U}=(u,v)$. Es decir, \[ \vec{U}_t +[A]\vec{U}_x =0,\qquad [A]=\left( \begin{array}{cc} 2 & 1 \\[0.3cm] \noalign{\smallskip} 1 & 2 \end{array} \right). \] \es Es f\'acil ver que la matriz $[A]$ (que es sim\'etrica) tiene autovalores \[ \lambda_1 =3,\qquad \lambda_2 =1. \] Los autovectores son $\vec{\mu}_1 =(1,1)$ y $\vec{\mu}_2 =(1,-1)$. La matriz es diagonalizable y el sistema se puede desacoplar mediante el cambio $\vec{W% }=[P^{-1}] \vec{U}$. N\'otese que la matriz $[P]$ viene dada por (escribiendo en columna las componentes de los autovectores $\vec{\mu}_1$ y $\vec{\mu}_2$) \[ [P]=\dis \left( \begin{array}{cc} 1 & 1 \\[0.3cm] \noalign{\smallskip} 1 & -1 \end{array} \right),\qquad [P^{-1}]=\left( \begin{array}{cc} \dis\frac{1}{2} & \dis\frac{1}{2} \\[0.3cm] \noalign{\smallskip} \dis\frac{1}{2} & -\dis\frac{1}{2} \end{array} \right), \] luego, \[ \left( \begin{array}{c} w^1 \\[0.3cm] \noalign{\smallskip} w^2 \end{array} \right) = \left( \begin{array}{cc} \dis\frac{1}{2} & \dis\frac{1}{2} \\[0.3cm] \noalign{\smallskip} \dis\frac{1}{2} & -\dis\frac{1}{2} \end{array} \right) \left( \begin{array}{c} u \\[0.3cm] \noalign{\smallskip} v \end{array} \right) = \left( \begin{array}{c} \dis\frac{1}{2}(u+v) \\[0.3cm] \noalign{\smallskip} \dis\frac{1}{2}(u-v) \end{array} \right). \] Un simple razonamiento nos confirma que el cambio de coordenadas a efectuar es el anterior. En efecto, sumando y restando las dos ecuaciones: \[ \dis u_t +2u_x +v_x = 0 ,\qquad \dis v_t +u_x +2v_x = 0, \] el sistema se puede reescribir en la forma: \[ \begin{array}{c} \dis\frac{1}{2}\left[(u+v)_t +3(u+v)_x \right]=0 ,\qquad 01$, se encuentra en el cap. 9 del libro de Strikwerda. \subsection{Ecuaciones hiperb\'olicas lineales homog\'eneas con coeficientes va\-ria\-bles} Consideraremos unas ecuaciones hiperb\'olicas con coeficientes variables para las cuales la velocidad caracter\'{\i}stica es una funci\'on del tiempo y del espacio. En concreto, sea dada la ecuaci\'on \begin{equation} \label{strik7} u_t +a(x,t)u_x =0, \end{equation} complementada con la condici\'on inicial $u(x,0)=u_0 (x)$, cuya velocidad de propagaci\'on es $a(x,t)$. Tal y como hicimos con la ecuaci\'on (\ref{strik2}% ) (coeficientes constantes) introducimos las variables $\tau$ y $\xi$, siendo $t=\tau$ y dejando $\xi$ todav\'{\i}a indeterminada. Se tiene: \[ \deri{\tilde{u}}{\tau} =\deri{t}{\tau}u_t+\deri{x}{\tau}u_x= u_t+% \deri{x}{\tau}u_x. \] Siguiendo la analog\'{\i}a con el caso de coeficientes constantes, ponemos: \[ \dis\frac{dx}{d\tau}=a(x,t)=a(x,\tau ), \] que es una EDO para $x$ que nos da la velocidad a lo largo de la caracter\'{\i}stica a trav\'es del punto $(x,\tau)$ como $a(x,\tau )$. Prescribimos adem\'as el valor inicial para la curva caracter\'{\i}stica que pasa por el punto $(x,\tau )$ como $\xi$ (de esta forma queda determinado el cambio de variables). Luego la ecuaci\'on (\ref{strik7}) es equivalente al PVI constituido por el sistema de EDO y las condiciones iniciales: \begin{equation} \label{strik8} \left\{ \begin{array}{rcll} \dis \frac{d\tilde{u}}{d\tau} & = & 0, & \tilde{u}(\xi ,0 )=u_0 (\xi) \\% [0.1cm] \noalign{\smallskip} \dis \frac{dx}{d\tau} & = & a(x,\tau ), & x(0)=x_0 =\xi, \end{array} \right. \end{equation} donde $\xi$ es un par\'ametro que permite \emph{recorrer} con continuidad las caracter\'{\i}sticas de la EDP (es constante a lo largo de cada caracter\'{\i}stica pero var\'{\i}a pasando de una a otra). \es Tal y como se deduce a partir de la primera ecuaci\'on del sistema, $u$ es constante a lo largo de cada curva caracter\'{\i}stica, pero la caracter\'{\i}stica no tiene por qu\'e ser una recta (lo ser\'{\i}a si $a$ fuese constante). %poner ejemplo pag 5 de strik \bejem[Problema de valor inicial] Se considera el PVI: \[ \left\{ \begin{array}{rcl} \dis u_t +x u_x & = & 0, \\[0.3cm] \noalign{\smallskip} \dis u(x,0) & = & u_0 (x), \end{array} \right. \] siendo la condici\'on inicial: \[ u (x,0)=u_0 (x)=\left\{ \begin{array}{rl} 1 & 0\leq x\leq 1, \\[0.1cm] \noalign{\smallskip} 0 & x\not\in [0,1], \end{array} \right. \] Encontrar su soluci\'on. \enejem Utilizando (\ref{strik8}) se tienen las ecuaciones \[ \dis \frac{d\tilde{u}}{d\tau}=0,\qquad \dis \frac{dx}{d\tau}=x. \] La soluci\'on general de la EDO para $x(\tau)$ es $x(\tau )=c e^{\tau}$. Puesto que $x(0)=\xi$ se tiene $x(\tau )=\xi e^{\tau}$ es decir, \[ \dis \xi =xe^{-\tau}. \] La ecuaci\'on para la $\tilde{u}$ muestra que $\tilde{u}$ es independiente de $\tau$ y utilizando la condici\'on inicial se tiene: \[ \tilde{u}(\tau ,\xi )=u_0 (\xi ), \] luego, \[ u(x,t)=\tilde{u}(\tau ,\xi )=u_0 (\xi )=u_0 (xe^{-t}), \] y se tiene, para $t>0$, \[ u (x,t)=\left\{ \begin{array}{rl} 1, & 0\leq x\leq e^t , \\[0.1cm] \noalign{\smallskip} 0, & x\not\in [0,e^t]. \end{array} \right. \] \es \beobse N\'otese que el dato inicial del problema, $u_0 (x)$ es una funci\'on de soporte compacto\footnote{% Se entiende por ello una funci\'on que es id\'enticamente nula por fuera de un intervalo cerrado y acotado de la recta real.}, siendo el soporte el intervalo $[0,1]$. Para cada instante de tiempo fijado, digamos $t^*$, tambi\'en la soluci\'on tiene soporte compacto $\dis [0,e^{t^*}]$. La soluci\'on representa por tanto una propagaci\'on del dato inicial a lo largo de las caracter\'{\i}sticas. El soporte se dilata pero sigue siendo compacto para cada instante. Esta es una propiedad cualitativa t\'{\i}pica de las ecuaciones de tipo hiperb\'olico. \enobse \bejem[Problema de valor inicial] Se considera el PVI: \[ \left\{ \begin{array}{rcl} \dis u_t +x u_x & = & u, \\[0.3cm] \noalign{\smallskip} \dis u(x,0) & = & u_0 (x), \end{array} \right. \] siendo la condici\'on inicial: \[ u (x,0)=u_0 (x)=\left\{ \begin{array}{rl} 1 & 0\leq x\leq 1, \\[0.1cm] \noalign{\smallskip} 0 & x\not\in [0,1]. \end{array} \right. \] Encontrar su soluci\'on. \enejem El problema es ahora no homog\'eneo. Se define $u(x,t)=\tilde{u} (\xi ,\tau ) $ y se aplica la regla de la cadena para obtener las ecuaciones: \[ \dis \frac{d\tilde{u}}{d\tau}= \tilde{u},\qquad \dis \frac{dx}{d\tau}=x. \] La soluci\'on general de la EDO para $x(\tau)$ es $x(\tau )=c e^{\tau}$. Puesto que $x(0)=\xi$ se tiene $x(\tau )=\xi e^{\tau}$, es decir, \[ \dis \xi =xe^{-\tau}. \] La ecuaci\'on para la $\tilde{u}$ muestra que: \[ \tilde{u} (\tau ,\xi )=Ce^{\tau}. \] Utilizando la condici\'on inicial: \[ \tilde{u}(0 ,\xi )=u_0 (\xi ) =C, \] luego $\tilde{u}(\tau ,\xi )=u_0 (\xi )e^{\tau}$ y por tanto, \[ u(x,t)=\tilde{u}(\tau ,\xi )=u_0 (\xi )e^{\tau}=u_0 (xe^{-t}) e^t, \] y se tiene, para $t>0$, \[ u (x,t)=\left\{ \begin{array}{rl} e^t & 0\leq x\leq e^t, \\[0.1cm] \noalign{\smallskip} 0 & x\not\in [0,e^t ]. \end{array} \right. \] \es N\'otese finalmente que estos m\'etodos se pueden extender tambi\'en a ecuaciones no lineales (cuasilineales) de la forma: \[ u_t +a(x,t)u_x =f(x,t,u). \] %ver ejer 7 \es Las ecuaciones para las cuales las velocidades caracter\'{\i}sticas dependen de $u$, es decir con velocidad caracter\'{\i}stica $a(t,x,u)$, por ejemplo las ecuaciones del tipo: \[ u_t +a(x,t,u)u_x =f(x,t,u), \] requieren un cuidado especial pues las curvas caracter\'{\i}sticas se pueden intersecar. En este caso la soluci\'on toma valores distintos a lo largo de cada una de las caracter\'{\i}sticas luego en el punto de intersecci\'on debe haber un salto. Hay una discontinuidad. Los gradientes de la soluci\'on se ponen verticales y tienden al infinito. Se genera un frente y hay singularidad en las derivadas parciales. \subsection{$^*$ Sistemas hiperb\'olicos con coeficientes variables} Consideraremos en esta secci\'on los sistemas unidimensionales (espacialmente) de ecuaciones hiperb\'olicas de primer orden con coeficientes variables. Utilizaremos la misma notaci\'on adoptada en el caso de coeficientes constantes. Las matrices se entienden ahora como funciones matriciales. \begin{dfn} El sistema $$ \vec{U}_t +[A(x,t)]\vec{U}_x +[B(x,t)] \vec{U} =\vec{F}(x,t), $$ complementado con la condici\'on inicial $\vec{U}(x,0)=\vec{U}_0 (x)$ es {\bf hiperb\'olico} si existe una funci\'on matricial $[P(x,t)]$ tal que $$ [P^{-1}(x,t)][A(x,t)][P(x,t)]=[D (x,t)]= \left(\begin{array}{ccccccc} a_1 (x,t) & & & & & & 0\\ \noalign{\smallskip} & &\cdot & & & & \\ \noalign{\smallskip} & & & \cdot & & & \\ \noalign{\smallskip} & & & & \cdot & & \\ \noalign{\smallskip} 0 & & & & & & a_d (x,t)\\ \noalign{\smallskip} \end{array}\right) $$ es diagonal, con autovalores reales y las normas matriciales de $[P(x,t)]$, $[P^{-1} (x,t)]$ est\'an acotadas en $x$ y $t$ para $x\in\R$, $t\geq 0$. \end{dfn} Las curvas caracter\'{\i}sticas del sistema vienen dadas por las soluciones de las EDO: \[ \dis \frac{dx^{i}}{dt}=a_i (x,t), \quad x^{i} (0)=\xi^{i},\qquad i=1,..,d. \] Definiendo $\vec{W}=[P^{-1}(x,t)]\vec{U}$, obtenemos el sistema para la $\vec{W}$: \[ \vec{W}_t +[D(x,t)] \vec{W}_x =[P^{-1}(x,t)]\vec{F}(x,t)+ [G (x,t)]\vec{W} \] siendo $\dis [G]=-[P]^{-1}([P]_t +[A] [P]_x -[B][P])$. \subsection{$^*$ Problemas de valor inicial y de contorno para una EDP de primer orden con coeficientes constantes} Consideraremos ahora EDP hiperb\'olicas de primer orden en un intervalo finito en lugar de en toda la recta real. La mayor\'{\i}a de las aplicaciones de las EDP se plantean en dominios con una frontera y es muy importante prescribir correctamente los datos del problema a lo largo de la frontera, es decir las \textbf{condiciones de contorno}. El problema de determinar una soluci\'on de una ecuaci\'on diferencial cuando se pres\-cri\-ben datos iniciales y datos en el contorno se llama un \textbf{problema de valor inicial y de contorno}. El an\'alisis de este tipo de problemas mostrar\'a nuevamente la importancia del concepto de caracter\'{\i}stica. \es En esta secci\'on consideraremos los problemas de valor inicial y de contorno para EDP de primer orden (hiperb\'olicas) en una dimensi\'on espacial. \es Se considera la ecuaci\'on de onda unidimensional \begin{equation} \label{strik21} u_t +V u_x =0,\qquad 0\leq x\leq 1,\quad t\geq 0. \end{equation} Si $V>0$ las caracter\'{\i}sticas en esta regi\'on son l\'{\i}neas rectas que se propagan de izquierda a derecha. Podemos prescribir la soluci\'on en la frontera $x=0$, junto a una condici\'on inicial, para que la soluci\'on est\'e definida $\forall\,t\geq 0$. Por otra parte no podemos prefijar arbitrariamente la funci\'on en la otra frontera ($x=1$) pues la soluci\'on podr\'{\i}a estar sobre determinada (es decir podr\'{\i}a no existir una soluci\'on que cumpla todas las condiciones impuestas). Si especificamos un dato inicial \[ u(x,0)=u_0 (x), \] y un dato de contorno \[ u(0,t)=g(t), \] entonces la soluci\'on del problema de valor inicial y de contorno constituido por la ecuaci\'on (\ref{strik21}) y las condiciones l\'{\i}mite anteriores es: \[ u (x,t)=\left\{ \begin{array}{rl} u_0 (x-Vt) & x-Vt >0, \\[0.1cm] \noalign{\smallskip} g(t-V^{-1}x) & x-Vt <0. \end{array} \right. \] A lo largo de la caracter\'{\i}stica dada por $x-Vt=0$ tendremos una discontinuidad de salto en $u$ si $u_0 (x=0)\neq g(t=0)$. Si $V<0$ el papel de las dos fronteras se invierte y el an\'alisis es similar. \es \bejem % Smith pg 150 libro viejo Calcular la soluci\'on de la ecuaci\'on \[ \dis \deri{u}{t}+\deri{u}{x}=0,\qquad 00, \] complementada con la condici\'on de contorno: \[ u(0,t)=g(t)=2t,\quad t>0, \] y la condici\'on inicial: \[ u (x,0)=u_0 (x)=\left\{ \begin{array}{rl} x (x-2) & 0\leq x\leq 2, \\[0.1cm] \noalign{\smallskip} 2(x-2) & x\geq 2. \end{array} \right. \] \enejem Puesto que $V\equiv 1$, se tiene que la soluci\'on es: \[ u (x,t)=\left\{ \begin{array}{rl} u_0 (x-t) & x-t >0, \\[0.1cm] \noalign{\smallskip} g(t-x) & x-t <0. \end{array} \right. \] N\'otese que en el origen $(x,t)=(0,0)$ se tiene $u_0 (0)=g (0)$ y no hay discontinuidad de salto. Expl\'{\i}citamente (utilizando los datos del problema) la expresi\'on de la soluci\'on es: \[ u(x,t)=\dis \left\{ \begin{array}{ll} \left\{ \begin{array}{ll} (x-t) (x-t-2) & 0< x-t\leq 2, \\[0.1cm] \noalign{\smallskip} 2(x-t-2) & x-t\geq 2 \end{array} \right\} & x-t >0, \\[0.1cm] \noalign{\smallskip} 2(t-x) & x-t <0. \end{array} \right. \] Veamos el porqu\'e. El sistema auxiliar es: \[ \dis dt=dx=\frac{du}{0}, \] luego $u$ es constante a lo largo de la l\'{\i}nea recta caracter\'{\i}stica $t=x+C$. Por tanto la ecuaci\'on de la caracter\'{\i}stica que pasa por el punto $(x_0 ,0)$ del eje $x$ es $t=x-x_0$ y si $u(x,0)=u_0 (x)$ entonces la soluci\'on a lo largo de esta caracter\'{\i}stica es: \[ u(x,t)=u_0 (x_0 )=u_0 (x-t). \] Adem\'as, puesto que el dato inicial viene dado en $00$ luego la expresi\'on anterior de la soluci\'on es v\'alida s\'olo en la regi\'on tal que $s=x-t >0$. De manera an\'aloga, si $u(0,t)=g (t)$, la soluci\'on a lo largo de la caracter\'{\i}stica $t-t_0 =x$ que pasa por el punto $(0,t_0 )$ es: \[ u(x,t)=g (t_0 )=g (t-x). \] Puesto que el dato de contorno viene dado para $t>0$, se tiene que $g (s)$ est\'a definida para $s>0$ luego la expresi\'on anterior de la soluci\'on es v\'alida s\'olo en la regi\'on tal que $s=t-x >0$. Juntando las dos expresiones se tiene: \[ u (x,t)=\left\{ \begin{array}{rl} u_0 (x-t) & x-t >0, \\[0.1cm] \noalign{\smallskip} g (t-x) & x-t <0. \end{array} \right. \] \es %paramem Este ejemplo se puede encontrar en el libro de Smith donde %se utiliza este modelo para discutir la resoluci\'on num\'erica del %mismo mediante el m\'etodo de Lax-Wendroff expl\'{\i}cito. \subsubsection{$^*$ Problemas de valor inicial y de contorno para sistemas de primer orden con coeficientes constantes} Consideremos ahora el sistema hiperb\'olico: \begin{equation} \label{sih} \left( \begin{array}{c} u^1 \\[0.3cm] \noalign{\smallskip} u^2 \end{array} \right)_t + \left( \begin{array}{cc} a & b \\[0.3cm] \noalign{\smallskip} b & a \end{array} \right) \left( \begin{array}{c} u^1 \\[0.3cm] \noalign{\smallskip} u^2 \end{array} \right)_x =0 ,\qquad 0\leq x\leq 1,\quad t\geq 0. \end{equation} Los autovalores (o velocidades caracter\'{\i}sticas) del sistema son: \[ \lambda_1 =a+b ,\qquad \lambda_2 =a-b. \] Considereremos s\'olo el caso donde $a$ y $b$ son positivos. Si $00$, y donde $\bfm{u}=(u_1 ,...,u_n )$ es un campo vectorial $\bfm{u}\,:\, \R^d \times (0,+\infty )\to\Omega$. El sistema (\ref{sisco}) se puede escribir en la forma de divergencia: \[ \bfm{u}_t +\mbox{div}\bfm{f}(\bfm{u})=0, \] siendo $\bfm{f}$ una funci\'on matricial con valores en $M_{nd}$. El conjunto $\Omega$ se llama el \textbf{conjunto de estados} (del sistema). Las funciones $f_j =(f_{1j},...,f_{nj})$ (es decir las componentes vectoriales de la funci\'on matricial) se llaman las \textbf{funciones de flujo}. Formalmente el sistema (\ref{sisco}) expresa la conservaci\'on de las cantidades $u_1 ,..., u_n$. En efecto, sea $D$ un dominio arbitrario de $% \R^d$ y sea $\bfm{n}=(n_1 ,...,n_d )$ el vector normal unitario exterior a la frontera $\partial D$ de $D$. Entonces integrando la ecuaci\'on (\ref {sisco}) en $D \subset\R^d$ y aplicando el teorema de la divergencia (en el caso $d$-dimensional) se tiene: \[ \dis \frac{d}{dt}\int_D \bfm{u} d\bfm{x}+\dis \sum_{j=1}^d \int_{\partial D} f_j (\bfm{u} )n_j dS =0. \] Esta ecuaci\'on de equilibrio (balance) tiene un significado muy natural: la variaci\'on de $\dis \int_D \bfm{u} d\bfm{x}$, representada por: \[ \dis \frac{d}{dt}\int_D \bfm{u} d\bfm{x}, \] es igual a las p\'erdidas a trav\'es de la frontera: \[ \dis \sum_{j=1}^d \int_{\partial D} f_j (\bfm{u} )n_j dS. \] Caracterizaremos ahora los sistemas estr\'{\i}ctamente hiperb\'olicos\footnote{% N\'otese que la mayor\'{\i}a de los sistemas de leyes de conservaci\'on que aparecen en las aplicaciones son hiperb\'olicos. M\'as exactamente, son simetrizables y esto implica que son hiperb\'olicos. La simetrizabilidad se debe a la existencia de una funci\'on de entrop\'{\i}a. M\'as detalles se pueden encontrar en el libro de Godlewski y Raviart que aparece en la bibliograf\'{\i}a avanzada.}. Para ello se calcula la matriz jacobiana de cada funci\'on de flujo $f_j (\bfm{u})$ dada por: \[ \dis \left[ A_j (\bfm{u})\right] =\left(\deri{f_{ij}}{u_k }(\bfm{u}) \right)_{1\leq i,k\leq n}. \] El sistema (\ref{sisco}) se dice \textbf{hiperb\'olico} si, $\forall\,\bfm{u}% \in\Omega$ y cada $\bfm{w}=(w_1,...,w_d )$ la matriz \[ \dis \left[ A (\bfm{u},\bfm{w})\right] =\sum_{j=1}^d w_j A_j (\bfm{u}) \] tiene $n$ autovalores reales: \[ \lambda_1 (\bfm{u},\bfm{w})\leq \lambda_2 (\bfm{u},\bfm{w})\leq ..........\leq \lambda_n (\bfm{u},\bfm{w})\leq ... \] y $n$ correspondientes autovectores linealmente independientes \[ r_1 (\bfm{u},\bfm{w}),\, r_2 (\bfm{u},\bfm{w}),\,........\, , r_n (\bfm{u},% \bfm{w}). \] Si adem\'as los autovalores son todos distintos entonces el sistema (\ref {sisco}) se denomina \textbf{estr\'{\i}ctamente hiperb\'olico}. Definimos finalmente el problema de Cauchy para sistemas de leyes de conservaci\'on. \begin{dfn}[Problema de Cauchy] Determinar una funci\'on $$ \bfm{u}:\,\R^d \times [0,+\infty )\to\Omega , \qquad \bfm{u}= \bfm{u}(\bfm{x},t)\in\Omega, $$ que satisfaga la ecuaci\'on (\ref{sisco}) y la condici\'on inicial: $$ \bfm{u} (\bfm{x},0)=\bfm{u}_0 (\bfm{x}),\quad\bfm{x}\in\R^d, $$ siendo $\bfm{u}_0 \,:\,\R^d \to\Omega $ una funci\'on dada. \end{dfn} \es Como aplicaci\'on de lo anterior consideraremos ahora las ecuaciones de las din\'amicas de los gases en coordenadas eulerianas\footnote{% Utilizar coordenadas eulerianas consiste en dar una descripci\'on espacial de la regi\'on considerada. Se centra as\'{\i} la atenci\'on en los puntos del espacio en lugar de seguir la evoluci\'on temporal de las pat\'{\i}culas que componen la distribuci\'on de masas inicial del sistema (lo que equivaldr\'{\i}a a una descripci\'on \emph{lagrangiana} (o material)).} $(% \vec{x},t)=(x_1 ,x_2 ,x_3 ,t)$. Lo que haremos ser\'a escribir estas ecuaciones en la forma de una \'unica ecuaci\'on de conservaci\'on del tipo (% \ref{sisco}). \bejem Un ejemplo muy importante en las aplicaciones es el sistema de ecuaciones que gobierna la din\'amica de los gases. Despreciando la conducci\'on de calor, las ecuaciones de Euler para un fluido compresible no viscoso (un gas) son \enejem \begin{equation} \label{gasdin} \left\{ \begin{array}{l} \dis \deri{\rho}{t} +\dis \sum_{i=1}^3 \deri{}{x_j}(\rho v_j ) = 0, \\[0.3cm] \noalign{\smallskip} \dis \deri{}{t}(\rho v_i )+ \dis \sum_{i=1}^3 % \deri{}{x_j}(\rho v_i v_j +p \delta_{ij} )=0,\qquad 1\leq i\leq 3, \\[0.3cm] \noalign{\smallskip} \dis \deri{}{t}(\rho e )+ \dis \sum_{i=1}^3 % \deri{}{x_j}((\rho e +p )v_j )=0. \end{array} \right. \end{equation} siendo $\rho$ la densidad del fluido, $\bfm{v}=(v_1 ,v_2 ,v_3 )$ la velocidad, $p$ la presi\'on, $\epsilon$ la energ\'{\i}a interna espec\'{\i}fica (por unidad de masa), $e=\epsilon +\| \bfm{u}\| /2$ la energ\'{\i}a total espec\'{\i}fica y $\delta_{ij}$ el s\'{\i}mbolo de Kronecker: $\delta_{ij}=1$ si $i = j$, $\delta_{ij}=0$ si $i\neq j$. \es Las ecuaciones (\ref{gasdin}) expresan las leyes de conservaci\'on de la masa, del momento y de la energ\'{\i}a total del fluido. Se tienen que complementar con una ecuaci\'on de estado (que caracteriza el gas estudiado) que suele ser del tipo \begin{equation} \label{estado} p=p(\rho ,\epsilon ). \end{equation} Las ecuaciones (\ref{gasdin}) y (\ref{estado}) constituyen un sistema de $% 5+1=6$ ecuaciones en las $6$ variables $(\rho , v_1 ,v_2 ,v_3 , p,\epsilon )$% . En el caso de un gas ideal politr\'opico la ecuaci\'on de estado ser\'{\i}a por ejemplo $p=(\gamma -1 )\rho \epsilon $, siendo $\gamma >1$. Si definimos $m_i =\rho v_i$, $i=1..3$, $E=\rho e$ el sistema (\ref{gasdin}) se puede escribir en la forma de una \'unica ecuaci\'on vectorial del tipo (% \ref{sisco}): \[ %\begin{equation}\label{pisco} \dis \deri{\bfm{\Phi }}{t}+\sum_{j=1}^d \deri{f_j }{x_j} (\bfm{\Phi}) =0, \] %\end{equation} siendo la inc\'ognita dada por el campo vectorial \[ \Phi =\left( \begin{array}{c} \rho \\[0.1cm] \noalign{\smallskip} m_1 \\[0.1cm] \noalign{\smallskip} m_2 \\[0.1cm] \noalign{\smallskip} m_3 \\[0.1cm] \noalign{\smallskip} E \end{array} \right), \] las funciones de flujo dadas por \[ f_1 (\Phi ) =\left( \begin{array}{c} m_1 \\[0.1cm] \noalign{\smallskip} p+m_1^2 /2 \\[0.1cm] \noalign{\smallskip} m_1 m_2 /\rho \\[0.1cm] \noalign{\smallskip} m_1 m_3 /\rho \\[0.1cm] \noalign{\smallskip} (E+p)m_1 /\rho \end{array} \right) ,\, f_2 (\Phi ) =\left( \begin{array}{c} m_2 \\[0.1cm] \noalign{\smallskip} m_1 m_2 /\rho \\[0.1cm] \noalign{\smallskip} p+ m_2^2 /\rho \\[0.1cm] \noalign{\smallskip} m_2 m_3 /\rho \\[0.1cm] \noalign{\smallskip} (E+p)m_2 /\rho \end{array} \right) ,\, f_3 (\Phi ) =\left( \begin{array}{c} m_3 \\[0.1cm] \noalign{\smallskip} m_1 m_3 /\rho \\[0.1cm] \noalign{\smallskip} m_2 m_3 /\rho \\[0.1cm] \noalign{\smallskip} p+ m_3^2 /\rho \\[0.1cm] \noalign{\smallskip} (E+p)m_3 /\rho \end{array} \right) , \] la ecuaci\'on de estado \[ p=p(\rho ,(E-|m|^2 /2\rho )/\rho ) =(\gamma -1 )(E-|m|^2 /2\rho ) \] y el conjunto de estados \[ \Omega =\{ (\rho , \bfm{m}=(m_1 ,m_2 ,m_3 ),E)\,/\, \rho >0 ,\bfm{m}\in \R^3 , E-|m|^2 /2\rho >0 \}, \] donde aparecen las condiciones de admisibilidad f\'{\i}sica de las soluciones del problema. %\newpage %%%%%%%%%%%%%%%%% Fin primera parte - edpmet1a.tex %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\include{acap12} \section{Ecuaciones lineales de segundo orden} La forma general de una ecuaci\'on diferencial en derivadas parciales {\bf lineal} de segundo orden con dos variables independientes $x$, $y$ es \begin{equation}\label{fg} A(x,y)\dderi{u}{x}+B(x,y)\frac{\partial^2 u}{\partial x\partial y}+C(x,y)\dderi{u}{y} +a(x,y)\deri{u}{x}+b(x,y)\deri{u}{y}+c(x,y)u =f(x,y), \end{equation} siendo $A$, $B$, $C$, $a$, $b$, $c$, $f$ funciones reales. Si las funciones $A$, $B$, $C$ son id\'enticamente nulas, es decir $A(x,y)=B(x,y)=C(x,y)\equiv 0$ en un dominio $\Omega \subset \R^2$ entonces la ecuaci\'on es de primer orden y se estudia con las t\'ecnicas expuestas en las dos primeras secciones de este tema. Si $f(x,y)\equiv 0$ en $\Omega$ entonces la ecuaci\'on se dice que es {\bf homog\'enea}, y en caso contrario, {\bf no homog\'enea}. Al designar el primer miembro de (\ref{fg}) por $L[u]$ (notaci\'on de operadores) se puede escribir de forma m\'as compacta la ecuaci\'on (\ref{fg}) como: $$ L[u]=f(x,y), $$ siendo la ecuaci\'on homog\'enea correspondiente $L[u]=0$. Aqu\'{\i} $L$ es el operador diferencial lineal definido en el espacio $C^2 (D)$ mediante la funci\'on $u(x,y)$. Con m\'as precisi\'on, se define el operador $L[\cdot]:C^2 (D)\to C(D)$ por: $$ L[u] =\left( A(x,y)\dderi{}{x}+B(x,y)\frac{\partial^2 }{\partial x\partial y}+C(x,y)\dderi{}{y} +a(x,y)\deri{}{x}+\right.$$ $$\left. b(x,y)\deri{}{y}+c(x,y)\right)[u]. $$%\end{equation} El operador $L$ es, evidentemente, lineal pues verifica $$ L [\alpha u+\beta v ]=\alpha L[u]+\beta L[v] ,\qquad\forall\,u,v\in C^2 (\Omega ), \quad\,\forall\,\alpha,\beta \in\R. $$ \beobse N\'otese que no todos los operadores son lineales. Por ejemplo, el o\-pe\-ra\-dor $L$ tal que: $$ L[u]\doteq \dis\left(\deri{u}{x}\right)^2 + \dis\left(\deri{u}{y}\right)^2, $$ no lo es. En realidad, muchos problemas f\'{\i}sicos implican operadores no lineales. Las hip\'otesis de simplificaci\'on que se suelen hacer al considerar un mo\-de\-lo matem\'atico de la realidad f\'{\i}sica est\'an dirigidas a sustituir un operador no lineal por uno lineal. Esto es t\'{\i}pico, en el sentido de que es posible aproximar las soluciones de muchos problemas sustituyendo operadores no lineales por otros lineales. En el tratamiento anal\'{\i}tico exacto desarrollado en este curso nos referiremos tan s\'olo a tales casos. El {\em mundo} no lineal ser\'a considerado en el cap\'{\i}tulo dedicado a la aproximaci\'on num\'erica. \enobse Ya sabemos (v\'ease el tema de EDO del primer curso) que si una EDO es lineal y homog\'enea entonces a partir de soluciones conocidas es posible generar otras soluciones por superposici\'on. Para una EDP lineal homog\'enea la situaci\'on es parecida. En efecto, utilizando la linealidad del operador $L$, se tienen las siguientes propiedades de las soluciones de ecuaciones diferenciales en derivadas parciales:\vspace{1.3cm} \centerline{PROPIEDADES} \es \begin{enumerate} \item {\bf Caso homog\'eneo}. \beteor Si $u(x,y)$ es una soluci\'on de la ecuaci\'on en derivadas parciales lineal homog\'enea $$ L[u]=0, $$ entonces $cu(x,y)$ (donde $c$ es una constante cualquiera) es tambi\'en soluci\'on de $L[u]=0$. \enteor \beteor Si $u_1 (x,y)$ y $u_2 (x,y)$ son soluciones de la ecuaci\'on en derivadas parciales lineal homog\'enea $$ L[u]=0, $$ entonces la suma $u_1 (x,y)+u_2 (x,y)$ es tambi\'en soluci\'on de $L[u]=0$. \enteor Los teoremas anteriores se resumen diciendo que el conjunto de soluciones de una EDP lineal homog\'enea es un espacio vectorial. De otra forma, si cada una de las funciones $u_1 (x,y)$, $u_2 (x,y)$, ... $u_k (x,y)$ es soluci\'on de la ecuaci\'on lineal homog\'enea $L[u]=0$ entonces la combinaci\'on lineal $$ c_1 u_1 (x,y)+ c_2 u_2 (x,y)+ .... + c_k u_k (x,y), $$ donde $c_i $, $i=1,...k$ son constantes reales arbitrarias, tambi\'en es soluci\'on de esta ecuaci\'on. N\'otese que esta propiedad tiene lugar tambi\'en para las EDO lineales homog\'eneas (v\'ease la definici\'on de sistema fundamental de soluciones para una EDO lineal homog\'enea de orden $n$ de la secci\'on 3 del cap\'{\i}tulo 13 del gui\'on del primer curso). Sin embargo una EDO lineal homog\'enea de orden $n$ tiene {\em exactamente} $n$ familias de soluciones (un n\'umero finito por tanto) linealmente independientes (cuya combinaci\'on lineal genera la soluci\'on general de la EDO). Una EDP lineal homog\'enea puede tener un conjunto infinito de soluciones linealmente independientes. %, tal %y como vimos en los ejemplos (\ref{ejp1}) y (\ref{ejp2}). Consecuentemente para EDP lineales homog\'eneas tendremos que operar no s\'olo con combinaciones lineales de un n\'umero finito de soluciones, sino tambi\'en con las series infinitas\footnote{Nos encontraremos con este tipo de soluciones, en forma de series infinitas, al resolver las EDP con el m\'etodo de separaci\'on de variables (tema 2 de este gui\'on).} $$ \sum_{n=1}^{\infty} c_n u_n (x,y). $$ Es decir, el conjunto de soluciones de una EDP del tipo (\ref{fg}) es un espacio lineal (vectorial) de dimensi\'on infinita contrariamente a lo que ocurr\'{\i}a con las EDO de orden $n$ cuyo espacio de soluciones tiene dimensi\'on $n$. \item {\bf Caso no homog\'eneo}. \beteor Si $u(x,y)$ es soluci\'on de la EDP lineal no homog\'enea $$ L[u]=f $$ y $v(x,y)$ es soluci\'on de la EDP homog\'enea correspondiente $$ L[u]=0, $$ entonces la suma $u+v$ es soluci\'on de la EDP no homog\'enea $L[u]=f$. \enteor Se tiene adem\'as el siguiente resultado conocido con el nombre de {\bf Principio de superposici\'on.} \es \beteor Si $u_1 (x,y)$ es una soluci\'on de la ecuaci\'on $$ L[u]=f_1 $$ y $u_2 (x,y)$ es una soluci\'on de $$ L[u]=f_2, $$ entonces $u_1 +u_2 $ es soluci\'on de la ecuaci\'on $L[u]=f_1 +f_2 $. \enteor \end{enumerate} \es En el pr\'oximo tema veremos que el principio de superposici\'on tiene una gran aplicaci\'on en el proceso de resoluci\'on de los problemas de contorno y/o iniciales para EDP lineales de segundo orden. \subsection{Ecuaciones de segundo orden: curvas caracter\'{\i}sticas y clasificaci\'on} Sea dada la ecuaci\'on diferencial lineal general de segundo orden (\ref{fg}): $$%\begin{equation}\label{fgdos} A(x,y)\dderi{u}{x}+B(x,y)\frac{\partial^2 u}{\partial x\partial y}+C(x,y)\dderi{u}{y} +a(x,y)\deri{u}{x}+b(x,y)\deri{u}{y}+c(x,y)u =f(x,y) $$%\end{equation} en cierta regi\'on $\Omega \subset \R^2$. Esta ecuaci\'on, en un punto $(x,y)$, se denomina hiperb\'olica, parab\'olica o el\'{\i}ptica seg\'un el siguiente criterio:\newpage \centerline{\underline{CRITERIO DE CLASIFICACI\'ON}} \es \begin{enumerate} \item La ecuaci\'on (\ref{fg}) es {\bf hiperb\'olica} en $\Omega$ si: $$ \Delta =B^2 -4AC >0 \quad\mbox{ en $\Omega$.} $$ \item La ecuaci\'on (\ref{fg}) es {\bf parab\'olica} en $\Omega$ si: $$ \Delta =B^2 -4AC \equiv 0 \quad\mbox{ en $\Omega$.} $$ \item La ecuaci\'on (\ref{fg}) es {\bf el\'{\i}ptica} en $\Omega$ si: $$ \Delta =B^2 -4AC < 0 \quad\mbox{ en $\Omega$.} $$ \end{enumerate} N\'otese que las funciones coeficientes $a$, $b$ y $c$ de los t\'erminos de primer orden no aparecen en absoluto en el criterio de clasificaci\'on. Esto se interpreta diciendo que los t\'erminos de primer orden no pueden modificar la {\em naturaleza} de una ecuaci\'on lineal de segundo orden. Es decir, los t\'erminos de primer orden influyen cuantitativamente pero no cualitativamente en las soluciones de la ecuaci\'on. \es A partir del tipo de ecuaci\'on considerado se pueden deducir importantes propiedades que sugieren no s\'olo qu\'e m\'etodos de resoluci\'on son adecuados sino tambi\'en criterios para determinar si un problemas est\'a bien planteado o no. \es Los conceptos de hiperbolicidad, parabolicidad y elipticidad son locales, es decir, se tienen en un punto concreto $(x_0 ,y_0 )$. El conjunto de los puntos donde se tienen estas propiedades son las regiones donde la ecuaci\'on (o el operador diferencial que la define) es hiperb\'olica, parab\'olica y el\'{\i}ptica. \es \bejem Clasificar la ecuaci\'on de Tricomi: $$ u_{xx}+x u_{yy}=0. $$ \enejem Se trata evidentemente de una EDP de segundo orden lineal y homog\'enea. I\-den\-ti\-fi\-can\-do coeficientes se tiene $$ A(x,y)\equiv 1 ,\qquad B(x,y)\equiv 0,\qquad C(x,y)=x. $$ Por tanto, $\dis B^2 -4AC =-4x$, luego la ecuaci\'on es hiperb\'olica si $x<0$ y es el\'{\i}ptica si $x>0$. Si $x=0$ (en el eje $y$) la ecuaci\'on es degenerada, pues cambia de tipo pasando de EDP a EDO (param\'etrica). \es \beobse Los t\'erminos hiperb\'olico, parab\'olico y el\'{\i}ptico derivan de la clasificaci\'on t\'{\i}pica (de la geometr\'{\i}a anal\'{\i}tica) de las curvas cuadr\'aticas (c\'onicas). \enobse \subsection*{Formas can\'onicas} Haciendo unos cambios adecuados en las variables independientes, $$ \xi =f (x,y),\quad \eta =g (x,y),\qquad f,g \in C^2, $$ y aplicando la regla de la cadena obtenemos las siguientes formas can\'onicas: \begin{enumerate} \item La ecuaci\'on (\ref{fg}) es {\bf hiperb\'olica} en $\Omega$ si se puede reconducir a una de las dos siguientes expresiones: $$ \frac{\partial^2 u}{\partial \xi\partial \eta} =F\left( \xi ,\eta ,u ,\deri{u}{\xi},\deri{u}{\eta} \right),\qquad \dderi{u}{\xi}-\dderi{u}{\eta} =\Phi\left( \xi ,\eta ,u ,\deri{u}{\xi},\deri{u}{\eta} \right) $$ (son dos formas can\'onicas de las ecuaciones de tipo hiperb\'olico de segundo orden). Las curvas (coordenadas) $(\xi ,\eta )$ se llaman {\bf caracter\'{\i}sticas}. En el caso hiperb\'olico li\-ne\-al uni-dimensional con coeficientes constantes hay exactamente dos curvas (rectas) caracter\'{\i}sticas dadas por: $$ \xi =y-\alpha_{-} x ,\qquad \eta =y -\alpha_{+} x $$ donde las pendientes $\alpha_{\pm}$ vienen dadas por: $$ \alpha_{\pm} =\frac{1}{2A}\left[-B \pm \sqrt{B^2 -4AC}\right] $$ Las formas can\'onicas son: $$ u_{\xi\eta} +a u_{\xi} +bu_{\eta} +c u +d =0, $$ y (definiendo $\sigma =(\xi +\eta )/2$, $\tau =(\xi -\eta )/2$) $$ u_{\sigma \sigma} -u_{\tau \tau} +(a+b) u_{\sigma} +(a-b) u_{\tau} +c u +d =0 $$ El prototipo de EDP de segundo orden hiperb\'olica es la ecuaci\'on de ondas $u_{tt}=c^2 \Delta u$. En el caso unidimensional se expresa en la forma $u_{tt}=c^2 u_{xx}$. La ecuaci\'on de ondas se puede resolver f\'acilmente introduciendo las nuevas coordenadas (las caracter\'{\i}sticas) $$ \xi =x+ct ,\qquad\eta =x-ct, $$ y aplicando la regla de la cadena a trav\'es de la cual se deduce la simple ecuaci\'on: $$ \dis \frac{\partial^2 u}{\partial \xi\partial\eta} =0. $$ Esta ecuaci\'on se satisface si y s\'olo si $$ u(\xi ,\eta )=p(\xi )+q(\eta ), $$ es decir, $$ u(x ,t )=p(x+ct )+q(x-ct ), $$ donde $p$ y $q$ son funciones derivables cualesquiera de una variable. En consecuencia si $u$ es soluci\'on de la ecuaci\'on de ondas tiene que ser del tipo anterior. La f\'ormula anterior es la integral general de la ecuaci\'on de onda u\-ni\-di\-men\-sio\-nal. D' Alembert la encontr\'o en 1747. Esta ecuaci\'on nos dice que toda soluci\'on es la suma de una onda que se desplaza hacia la izquierda con velocidad $-c$ y de otra que lo hace hacia la derecha con velocidad $+c$. Puesto que las ondas se desplazan en direcciones opuestas, la forma de $u(x,t)$ en general cambiar\'a con el tiempo. Esta interpretaci\'on origin\'o el nombre de ecuaci\'on de ondas. Resolver un problema de valores iniciales y de contorno concreto corresponder\'a a determinar las funciones $p$ y $q$ adecuadas. Una referencia cl\'asica muy clara es el libro de Weimberger, cap\'{\i}tulo 2, dedicado a la ecuaci\'on de ondas unidimensional. Como en el caso de las EDP de primer orden se admiten soluciones discontinuas (es decir d\'ebiles o generalizadas) y las discontinuidades se propagan a lo largo de las caracter\'{\i}sticas. \es \item La ecuaci\'on (\ref{fg}) es {\bf parab\'olica} en $\Omega$ si: $$ \dderi{u}{\eta} =\Phi\left( \xi ,\eta ,u ,\deri{u}{\xi},\deri{u}{\eta} \right) $$ En este caso existe s\'olo una familia de caracter\'{\i}sticas reales con pendiente $$ \alpha=\alpha_1 =\alpha_2 =\dis \frac{B}{2A}. $$ En el caso unidimensional lineal de coeficientes constantes la forma can\'onica es: $$ u_{\eta \eta} +a u_{\xi} +bu_{\eta} +c u +d =0, $$ El prototipo de EDP de segundo orden parab\'olica es la ecuaci\'on del calor $u_{t}=k \Delta u$. En el caso unidimensional se expresa en la forma $u_{t}=k u_{xx}$. Nos ocuparemos de ella m\'as tarde. \item La ecuaci\'on (\ref{fg}) es {\bf el\'{\i}ptica} en $\Omega$ si: $$ \dderi{u}{\xi}+\dderi{u}{\eta} =\Phi\left( \xi ,\eta ,u ,\deri{u}{\xi},\deri{u}{\eta} \right). $$ En este caso $B^2 -4AC <0$ luego las ra\'{\i}ces $\alpha_1$, $\alpha_2$ son complejas y no existen caracter\'{\i}sticas reales. En el caso bi-dimensional con coeficientes constantes si definimos $\sigma =(\xi +\eta )/2$, $\tau =(\xi -\eta )/2i$ se tiene la forma can\'onica para ecuaciones el\'{\i}pticas: $$ u_{\sigma \sigma} +u_{\tau \tau} +(a+b) u_{\sigma} +(a-b) u_{\tau} +c u +d =0. $$ El prototipo de EDP de segundo orden el\'{\i}ptica es la ecuaci\'on de Laplace $\Delta u =0$. En el caso bidimensional se expresa en la forma $u_{xx}+u_{yy}=0$. Este tipo de ecuaci\'on ser\'a abordada m\'as adelante. \end{enumerate} \es Los razonamientos anteriores puden ser generalizados al caso de coeficientes variables. A diferencia del caso con coeficientes constantes, pueden existir caracter\'{\i}sticas reales s\'olo en una parte del dominio de inter\'es. Las ecuaciones pueden cambiar de tipo de una regi\'on a otra. Esto ocurre, por ejemplo, en din\'amica de gases ({\em transonic gas dynamics}). En el libro de Mei, pag 28, puden encontrarse m\'as detalles. \es Resumimos lo anterior considerando el operador: $$ L[u]\doteq A \dderi{u}{t}+B\frac{\partial^2 u}{\partial x\partial t}+ C\dderi{u}{x}, $$ siendo $A,B,C$ constantes dadas. Nos concentramos por tanto en la parte de segundo orden del operador lineal general de segundo orden (pues es la parte que gobierna el proceso de clasificaci\'on). Utilizaremos adem\'as variables $(x,t)$ t\'{\i}picas de los pro\-ble\-mas de evoluci\'on (parab\'olicos e hiperb\'olicos). Podemos entonces transformar $L[u]$ en un m\'ultiplo de $$ \frac{\partial^2 u}{\partial \xi\partial \eta } $$ si y s\'olo si $$ B^2 -4AC >0. $$ Siempre que esto se cumple, $L$ es {\bf hiperb\'olico}. La transformaci\'on en este caso viene dada por: $$ \xi =2Ax +[-B +\sqrt{B^2 -4AC} ]t ,\qquad \eta =2Ax +[-B -\sqrt{B^2 -4AC} ]t $$ y el operador se transforma en $$ L[u]=-4A(B^2 -4AC)\frac{\partial^2 u}{\partial \xi\partial \eta } $$ El caso $A=0$ (y $C\neq 0$) puede tratarse del mismo modo, con $\xi =t $, $\eta =x-(C/B)t$. El caso $A=C=0$ es trivial puesto que el operador ya es de la forma buscada. \es Si $B^2 -4AC =0$ se dice que $L$ es {\bf parab\'olico}. En este caso la transformaci\'on: $$ \xi =2Ax -Bt ,\qquad \eta =t, $$ transforma $L[u]$ en $$ L[u]=A\dderi{u}{\eta}, $$ que es la forma corriente para un operador parab\'olico. La soluci\'on general de $L[u]=0$ es ahora: $$ p(\xi )+\eta q(\xi ). $$ Esta soluci\'on puede interpretarse como una onda de forma fija que se mueve con velocidad $B/2A$ junto con otra que crece linealmente con el tiempo y se mueve con la misma velocidad. Un operador parab\'olico tiene s\'olo una familia de caracter\'{\i}sticas $\xi =C$ (constantes). Las discontinuidades de las derivadas se propagan a lo largo de estas caracter\'{\i}sticas. \es Finalmente, si $B^2 -4AC <0$, el operador $L$ es {\bf el\'{\i}ptico}. El prototipo de operador el\'{\i}ptico es: $$ \dis \dderi{u}{\xi}+\dderi{u}{\eta}. $$ No tiene caracter\'{\i}sticas. Sin embargo, la transformaci\'on $$ \xi =\dis \frac{2Ax -Bt}{\sqrt{4AC-B^2 }} ,\qquad \eta =t, $$ hace $$ L[u]=A\dis \left[ \dderi{u}{\xi}+ \dderi{u}{\eta} \right]. $$ En la forma $L[u]=0$, se tiene la ecuaci\'on de Laplace. Las derivadas parciales de una soluci\'on de la ecuaci\'on de Laplace no presentan discontinuidades. \es Un gran n\'umero de problemas f\'{\i}sicos puede reducirse a una o varias de las ecuaciones anteriores. \beobse Cuando el n\'umero $n$ de variables independientes es superior a dos, tambi\'en se diferencian las ecuaciones de tipo hiperb\'olico, parab\'olico y el\'{\i}ptico. Finalmente observamos que no existe relaci\'on entre la clasificaci\'on de las EDP de segundo orden y las de primer orden ya que \'estas \'ultimas son todas hiperb\'olicas y el criterio las clasificar\'{\i}a (poniendo $A=B=C\equiv 0$), err\'oneamente, como parab\'olicas. Sin embargo s\'{\i} existe relaci\'on entre las ecuaciones lineales hiperb\'olicas de primer y segundo orden. Esta relaci\'on ata\~ne las propiedades cualitativas de las soluciones. Por ejemplo, la propiedad de propagaci\'on con velocidad finita de las perturbaciones (el dato inicial). Este fen\'omeno (v\'ease la observaci\'on referente la existencia de soluciones de soporte compacto para EDP de primer orden) no puede ocurrir en las ecuaciones lineales parab\'olicas en las cuales la velocidad de propagaci\'on es infinita, entendiendo por ello que si el dato inicial tiene soporte compacto la soluci\'on se propaga instant\'aneamente a todo el dominio (es decir se difunde en todo el espacio). \enobse \subsection{Problemas de contorno} Para describir completamente uno u otro proceso f\'{\i}sico no basta con tener s\'olo la ecuaci\'on diferencial que rige el proceso, hace falta plantear el estado inicial de este proceso (condiciones iniciales para problemas de evoluci\'on) y el r\'egimen en la frontera $\partial \Omega$ de la regi\'on $\Omega$ donde tiene lugar el proceso. Se distinguen dos tipos principales de problemas de contorno para EDP: \begin{enumerate} \item Problemas de contorno para ecuaciones de tipo el\'{\i}ptico. Se trata de problemas estacionarios donde se plantean las condiciones en la frontera $\partial \Omega$ y no hay condiciones iniciales. \item Problemas de contorno y de valores iniciales para ecuaciones en derivadas parciales en dominios acotados. Se trata de problemas de evoluci\'on para ecuaciones de tipo hiperb\'olico o parab\'olico donde se plantean condiciones iniciales y de contorno en dominios acotados $\Omega \subset \R^n$, $|\Omega |\doteq \mbox{diam}\,\Omega <\infty$. \end{enumerate} Empezando por el caso m\'as sencillo consideramos la ecuaci\'on parab\'olica de conductibilidad t\'ermica unidimensional, conocida con el nombre de ecuaci\'on del calor: \begin{equation}\label{rk1} \deri{u}{t}=k\dderi{u}{x},\qquad 0< x< 1,\quad t>0, \end{equation} siendo $k>0$ la conductividad t\'ermica del medio conductor (supuesto homog\'eneo) considerado. Complementamos la ecuaci\'on (\ref{rk1}) con una condici\'on inicial (n\'otese que el orden de derivaci\'on temporal de la EDP es uno) \begin{equation}\label{k2} u(x,0)=f (x),\qquad 0< x< 1, \end{equation} y con condiciones de contorno en las {\em fronteras laterales} del dominio. Por ejemplo (de\-ta\-lla\-re\-mos en la siguiente secci\'on los distintos tipos de condiciones de contorno que se suelen utilizar) podr\'{\i}amos escribir \begin{equation}\label{k3} u(0,t)= \phi_0 (t),\quad t>0 ,\qquad u(1,t)=\phi_1 (t),\quad t>0, \end{equation} en $x=0$, $\forall\,t>0$ y $x=1$, $\forall\,t>0$, siendo $\phi_0 (t)$, $\phi_1 (t)$ funciones dadas (conocidas). \es N\'otese que por fronteras laterales se entienden los conjuntos de puntos $\Gamma_0 , \,\Gamma_1\subset\R^2$ definidos por: $$ \Gamma_0 =\dis \{ (x,t)\in\R^2 /\,(x,t)=(0, t),\,t>0\}=\{0\}\times(0,\infty) $$ y $$ \Gamma_1 =\dis \{ (x,t)\in\R^2 /\,(x,t)=(1, t),\,t>0\} =\{1\}\times(0,\infty). $$ M\'as en general, si $\Omega \subset\R^N$ es un dominio N-dimensional de frontera $\partial\Omega$ entonces la ecuaci\'on se tiene en el cilindro (temporal) $Q=\Omega \times (0,T)$ de frontera lateral $\Sigma=\partial\Omega \times (0,T)$ donde $T\in \R^+ $ (soluciones locales en tiempo) o $T=+\infty$ (soluciones globales). En este caso el problema de valor inicial y de contorno asociado a la ecuaci\'on del calor con los valores de la soluci\'on prefijados en el contorno (frontera lateral) se formula: {\em Hallar una funci\'on} $$u(x,t):\bar{\Omega}\times [0,+\infty )\to \R $$ {\em tal que,} $$ \dis \left\{\begin{array}{rcll} \dis \deri{u}{t} & = & \dis \Delta u, & \mbox{en $Q$,} \\ [0.2cm] \noalign{\smallskip} u (x,t) & = & g(x,t), & \mbox{en $\Sigma$,} \\ [0.2cm] \noalign{\smallskip} u(x,0) & = & u_0 (x), & \mbox{en $\Omega$.} \end{array}\right. $$ donde $\dis \Delta =\dis \sum_{i=1}^{N}\dderi{}{x_i}$, designa el operador laplaciano respecto de las variables espaciales, $t$ es la variable tiempo y $u_0 (x)$ es una funci\'on dada. A veces es \'util considerar (pues ah\'{\i} se suele\footnote{La naturaleza de las hip\'otesis que garantizan la veracidad de esta afirmaci\'on va mucho m\'as all\'a de los objetivos de este curso. Una exposici\'on clara pero de nivel avanzado se puede encontrar en el cap\'{\i}tulo 10 sobre problemas de evoluci\'on del libro de H. Brezis, (1983). An\'alisis Funcional. Teor\'{\i}a y aplicaciones. Alianza Editorial.} localizar el m\'aximo de la soluci\'on) la frontera parab\'olica $\partial Q$ del cilindro $Q=\Omega \times (0,T)$ que se define por: $$ \partial Q=(\bar{\Omega}\times \{0\} )\,\bigcup \,(\partial \Omega \times [0,T] ). $$ \es Cuando $\Omega$ es infinito se suelen distinguir los casos $\Omega =\R^N$, $N=1,2,3$ y, en el caso unidimensional, $\Omega =(-\infty ,0)$, $\Omega =(0,\infty )$ que corresponden al caso de dominio semi-infinito. \subsection{Condiciones iniciales y de contorno} Para presentar los distintos tipos de condiciones iniciales y de contorno que se suelen im\-po\-ner en las aplicaciones consideraremos la ecuaci\'on del calor unidimensional. Existen tres tipos principales de condiciones iniciales y de contorno: \begin{enumerate} \item \underline{Especificar la funci\'on en la frontera del dominio}. Se conoce como condici\'on del tipo Dirichlet. Por ejemplo, si nuestra inc\'ognita es la funci\'on $u(x,t)$ y queremos resolver la EDP del calor $$ \dis \deri{u}{t}=k\dderi{u}{x}=\nabla \cdot(k\nabla u), $$ en un dominio acotado (un intervalo abierto de la recta real) $\Omega =(a,b)$ se pueden prefijar las siguientes condiciones l\'{\i}mite: $$ u(x,0)=f(x)\, (t=0),\, u(a,t)=g_1 (t)\,(x=a),\, u(b,t)=g_2 (t) \,(x=b) $$ Este tipo de condiciones, junto con la EDP, genera lo que se llama un {\bf problema de Dirichlet} o de primer tipo. N\'otese que se ha impuesto {\em una} condici\'on inicial de tipo Dirichlet y {\em dos} condiciones de contorno (siempre de tipo Dirichlet) en las fronteras laterales $\Gamma_a $ y $\Gamma_b$. \item \underline{Especificar la {\em derivada} de la funci\'on en la frontera del dominio}. Se co\-no\-ce como con\-di\-ci\'on del tipo Neumann y el problema asociado se llama {\bf problema de Neumann} (o de segundo tipo). Por ejemplo, $$ \dis \deri{u}{x}(a,t)=0\quad (x=a),\qquad -k\dis \deri{u}{x}(b,t)=q\quad (x=b), $$ siendo $q$ una constante. Para dominios $\Omega \subset\R^n$, $n>1$, se prescribe la componente normal de vector gradiente en la forma: $$ \dis \nabla u\cdot \bfm{n}=\deri{u}{\bfm{n}}, $$ siendo $\bfm{n}$ el vector normal a la curva (o hipersuperficie) que representa la frontera del dominio. F\'{\i}sicamente este tipo de condici\'on define el flujo de calor que atraviesa la frontera, que por ley de Fourier de la conducci\'on del calor, es proporcional al gradiente de temperaturas. Por ejemplo, en un problema \underline{estacionario} de conducci\'on de calor en una geometr\'{\i}a cil\'{\i}ndrica (coordenadas $(r,z)$) podr\'{\i}amos escribir $$ \bfm{q}=-k\nabla u, $$ siendo las componentes del flujo $$ q_r =-k\deri{u}{r},\qquad q_z =-k\deri{u}{z}. $$ La componente $q_r (r,z)$ del vector de flujo $\bfm{q}=(q_r ,q_z)$ denota flujo de calor molecular en la direcci\'on radial mientras $q_z (r,z)$ representa el flujo de calor molecular en la direcci\'on axial. \es Se trata en este caso de un flujo puramente difusivo. Si consideramos tambi\'en el flujo convectivo (que es un fen\'omeno de transporte del calor que tiene lugar debido al transporte de materia) se tienen condiciones del tipo: $$ \dis q_r = -k\deri{u}{r} +V_r u ,\qquad \dis q_z = -k\deri{u}{z} +V_z u , $$ siendo $(V_r ,V_z )$ las componentes radial y normal (respectivamente) de un campo de velocidades conocido. \item \underline{Especificar la funci\'on y su derivada en la frontera del dominio}. \es Se conoce como condici\'on de tipo {\bf Robin} (o mixto) y el problema asociado es un {\bf problema mixto} (o de tercer tipo). Si consideramos por ejemplo el flujo de calor a trav\'es de las paredes de un conducto por el cual fluye un fluido $$ -k\dis \deri{u}{r}=h(u-u_\infty )\quad r=R,\quad\forall\,z, $$ siendo $h$ un coeficiente de transporte de calor caracter\'{\i}stico del material s\'olido del conducto que controla el flujo (de calor) en la frontera y $u_{\infty}$ un valor conocido (dato del problema) de la temperatura ambiente alrededor del sistema. Hay que controlar cuidadosamente los signos que aparecen en este tipo de condici\'on. En procesos de enfriamiento la cantidad $u-u_{\infty}$ es positiva (pues obviamente la temperatura externa que controla el sistema es menor que la temperatura del fluido que se quiere enfriar) luego $$ \dis \deri{u}{r}< 0, $$ pues se est\'a perdiendo calor por las fronteras laterales. En efecto el flujo de calor $q_r$ es positivo, $$ q_r =-\dis \deri{u}{r}> 0, $$ y esto quiere decir que el calor se est\'a difundiendo de donde hay m\'as (en el interior del conducto) hacia donde hay menos (en el exterior). Comentarios parecidos se pueden hacer en los procesos de transporte (difusi\'on molecular) de materia donde se aplica la ley de Fick. La componente radial del flujo en coordenadas cil\'{\i}ndricas ser\'{\i}a por ejemplo: $$ J_r =-\dis D\deri{c}{r}, $$ siendo $c(r,z)$ la concentraci\'on de una especie qu\'{\i}mica y $D$ su coeficiente de difusi\'on. \es Este tipo de condiciones es muy realista pues expresa que el flujo de calor conductivo es proporcional a la diferencia de temperaturas entre las paredes del conducto y el exterior. \end{enumerate} Las condiciones anteriores se dicen {\bf homog\'eneas} si se satisfacen (sin cambiar de expresi\'on) para un m\'ultiplo cualquiera de la variable inc\'ognita. El primer tipo de condiciones (condiciones de tipo Dirichlet) incluye las condiciones iniciales, que para una funci\'on $u(x,t)$ se pueden escribir en la forma: $$ u(x,0)=f(x). $$ Esta condici\'on significa que en el instante $t=0$ la distribuci\'on de temperatura viene dada por la funci\'on $f(x)$. %(lo que no excluye el caso de temperatura inicial constante: $f(x)=C$). En alguna frontera podr\'{\i}a haber variaciones temporales as\'{\i} que podr\'{\i}amos tener, por ejemplo en $x=0$: $$ u(0,t)=g(t). $$ Ninguna de las dos condiciones del tipo 1 planteadas es homog\'enea (a menos que las funciones $f$ y $g$ sean id\'enticamente nulas). Sin embargo, si el valor en el contorno es una constante fijada, del tipo: $$ u (0,t)=u_0, $$ entonces podemos definir otra variable dependiente $\theta =u-u_0 $ y obtener una condici\'on $$ \theta (0,t)=0, $$ que es homog\'enea en la frontera. \es En ocasiones las condiciones del tipo 2, en sistemas de coordenadas cil\'{\i}ndricas y esf\'ericas, es posible utilizarlas como condici\'on de simetr\'{\i}a: $$ \dis \deri{u}{r} =0,\quad r=0. $$ N\'otese que para tales sistemas de co\-or\-de\-na\-das $r\geq 0$, luego para a\-se\-gu\-rar per\-fi\-les si\-m\'e\-tri\-cos de $u$ tenemos que imponer la condici\'on anterior. En el caso de una pared de un conducto aislada t\'ermicamente (si se considera un problema de transporte de calor) o impermeable (si se considera un problema de flujo de materia en un medio poroso saturado), la condici\'on es $$ -k\dis \deri{u}{r} =0,\quad r=R. $$ En el caso de las paredes de un conducto calentadas el\'ectricamente, la entrada de calor puede ser uniforme y constante (controlando por ejemplo la intensidad de corriente) luego podr\'{\i}amos imponer en un contorno del conducto: $$ \dis -k\deri{u}{r} =q,\quad r=R. $$ \es El tercer tipo de condiciones es mixto e incluye la funci\'on y su derivada (o su integral). Por ejemplo, la condici\'on: $$ -k\dis \deri{u}{r}=h(u-u_\infty )\quad r=R,\quad\forall\,z, $$ que simplemente modeliza el equilibrio entre el flujo conductivo y la transferencia de calor en la pared de un conducto. Puede ser reconducida a una condici\'on homog\'enea definiendo $\theta =u-u_\infty $ (si $u_\infty $ es constante): $$ -k\dis \deri{\theta}{r}=h\theta \quad r=R,\quad\forall\,z. $$ En los l\'{\i}mites $h\to\infty$ y $h\to 0$ se recuperan las condiciones homog\'eneas del tipo 1 y 2. Este tipo de condiciones de contorno se conoce tambi\'en con el nombre de {\bf condici\'on de tipo convectivo}\footnote{V\'ease por ejemplo pag 42 del libro de W.M. Deen, (1998), Analysis of Transport Phenomena. Oxford University Press.}. Ocasionalmente, una condici\'on de tipo mixto puede nacer como un equilibrio integro-diferencial. Un ejemplo se encuentra en Rice y Do, pag 408. Tal tipo de condiciones se suele abarcar con la t\'ecnica de la transformada de Laplace que veremos en el tercer tema de esta asignatura. \es Otros tipos de condiciones de contorno son igualmente posibles. En los procesos de transporte de calor por radiaci\'on (por ejemplo en combusti\'on o en procesos que se desarrollan a altas temperaturas) se aplica la ley de Stefan-Boltzmann para describir el mecanismo de transporte de calor entre superficies s\'olidas separadas por gases (que se asumen trans\-pa\-ren\-tes a la radiaci\'on). Otras condiciones se imponen en procesos de fusi\'on o evaporaci\'on donde tienen lugar cambios de fases\footnote{Muy interesante en este sentido es el cap\'{\i}tulo 2 secci\'on 2.5, pag 41 del libro de Deen dedicado a la transferencia de calor en las interfases.}. \es El n\'umero de condiciones de contorno o iniciales necesario para resolver una EDO corres\-ponde al n\'umero de constantes arbitrarias generadas en el curso del an\'alisis. Una ecuaci\'on de orden $n$ genera $n$ constantes arbitrarias. Esto implica que el n\'umero total de condiciones (de contorno o iniciales) a imponer es $n$. En las ecuaciones en derivadas parciales, existen siempre al menos dos variables independientes as\'{\i}, por ejemplo, una ecuaci\'on que describe el r\'egimen transitorio de distribuci\'on de temperatura en una barra cil\'{\i}ndrica de metal: $$ \dis \rho c_p \dis \deri{T}{t}=k\dis \frac{1}{r}\deri{}{r} \left( r\deri{T}{r} \right) =k\left(\dis \dderi{T}{r}+\frac{1}{r}\deri{T}{r}\right), $$ necesitar\'a (normalmente) una condici\'on para el tiempo (una condici\'on inicial) y dos para las fronteras fijas espaciales (digamos $r=0$ y $r=R$). En principio, por tanto, se necesita fijar generalmente una condici\'on para cada orden de cada derivada parcial. Sin embargo, esto no siempre es el caso. Por ejemplo, una condici\'on inicial no es necesaria si buscamos una soluci\'on peri\'odica en el tiempo. Un caso particular ser\'{\i}a: $$ T(r,t)=f(r)e^{iwt}. $$ En tales casos, s\'olo es necesario imponer condiciones en las fronteras ($r=0$ y $r=R$). Comentarios parecidos se aplican cuando se habla de la posici\'on angular en coordenadas cil\'{\i}ndricas o esf\'ericas. Concretamente cuando la soluci\'on debe ser peri\'odica en el \'angulo: $$ T(r,\theta)=T(r,\theta +2 \pi ). $$ %\newpage \section{Ecuaciones el\'{\i}pticas.} El estudio de los procesos estacionarios (que no var\'{\i}an con el tiempo) de diferente naturaleza f\'{\i}sica conduce a la consideraci\'on de EDP de tipo el\'{\i}ptico. \subsection{Ecuaciones de Laplace y de Poisson} El operador lineal: $$ \Delta u =\nabla^2 u =(\nabla \cdot \nabla )u= \nabla \cdot (\nabla u)= \mbox{div}(\nabla u)=\dis \sum_{i=1}^N \dderi{u}{x_i}, %=\dderi{u}{x_1}+\dderi{u}{x_2}+....+\dderi{u}{x_N} $$ se llama {\bf laplaciano N-dimensional} de $u$. Al operador $$ \Delta =\dis \sum_{i=1}^N \dderi{}{x_i} = \dderi{}{x_1}+\dderi{}{x_2}+....+\dderi{}{x_N}, $$ se le llama {\bf operador laplaciano} en honor del matem\'atico franc\'es Pierre Laplace (1749-1827). A la ecuaci\'on $$ \Delta u =0,\qquad \Omega\subset\R^N, $$ se la conoce como ecuaci\'on de Laplace y es la m\'as simple de las ecuaciones de tipo el\'{\i}ptico. La ecuaci\'on de Laplace siempre es homog\'enea. Si se considera la ecuaci\'on no homog\'enea $$ \Delta u = f(x_1 ,..x_N),\qquad\Omega \subset\R^N, $$ entonces tenemos la ecuaci\'on de Poisson (EDP el\'{\i}ptica lineal no homog\'enea que lleva este nombre en honor del matem\'atico S. D. Poisson (1781-1840)) que corresponde a un estado de equilibrio originado por una fuerza exterior. Si $f$ dependiera tambi\'en de $u$ en la forma: $$ \Delta u+\lambda u =0, $$ entonces tendr\'{\i}amos la ecuaci\'on (lineal) de Helmholtz que es un caso particular de las ecuaciones el\'{\i}pticas semilineales, $$ -\Delta u +f(x,u)=0,\qquad \Omega\subset\R^N. $$ Otra clase de EDP el\'{\i}pticas muy importante en las aplicaciones son las cuasilineales (ecuaciones no lineales donde las no linealidades aparecen en las derivadas de orden inmediatamente m\'as bajo del orden de la ecuaci\'on). Su expresi\'on general es: $$ -\Delta u +f(x,u,\nabla u)=0,\qquad \Omega\subset\R^N. $$ Por \'ultimo, definimos el operador bi-laplaciano: $$ \dis \nabla^4 u= \nabla^2 (\nabla^2 u) =\Delta (\Delta u)= \Delta^2 u, $$ que es un operador el\'{\i}ptico del cuarto orden. Se trata en este caso de resolver la ecuaci\'on el\'{\i}ptica bi-arm\'onica de cuarto orden $$ \nabla^4 u =u_{xxxx}+2u_{xxyy}+u_{yyyy} =0. $$ Se puede demostrar (v\'ease el libro de Deen, cap\'{\i}tulo 5, pag 239) que la funci\'on de corriente de un fluido incompresible estacionario bidimensional satisface la ecuaci\'on bi-arm\'onica lo que expresa la conservaci\'on de la cantidad de movimiento para flujos (lentos) de Stokes de fluidos newtonianos. Los flujos de Stokes ({\em creeping flows} en la literatura anglosajona) %est\'an relacionados con un n\'umero de Reynolds peque\~no %se le llama ecuaci\'on bi-harm\'onica. tienen muchas aplicaciones tecnol\'ogicas (microcirculaci\'on, reolog\'{\i}a de suspensiones, dispersiones coloidales o el procesado de pol\'{\i}meros) y aparecen relacionados con varios fen\'omenos naturales a\-so\-cia\-dos a fluidos muy viscosos.% (fluidos geof\'{\i}sicos). \es Dependiendo de los valores de $n$ (es decir del n\'umero de variables independientes consideradas) se tienen las siguientes expresiones del operador laplaciano en coordenadas cartesianas: $$ N=1 \quad \Delta u \equiv \frac{d^2 u}{dx^2} =0,\qquad N=2 \quad \Delta u \equiv \dderi{u}{x}+\dderi{u}{y} =0, $$ $$ N=3 \quad \Delta u \equiv \dderi{u}{x}+\dderi{u}{y}+\dderi{u}{z} =0 $$ donde el caso $N=1$ corresponde a una EDO y los casos $n=2,3$ corresponden a una EDP. \begin{dfn} Una funci\'on $u\in C^2 (\Omega)$ tal que $\Delta u=0$ en una regi\'on $\Omega \subset \R^N$ se dice {\bf arm\'onica} en $\Omega$. \end{dfn} \bejem Demostrar que la funci\'on: $$ f(x,y)=e^x \cos y, $$ es arm\'onica en el plano $\R^2$. \enejem La funci\'on dada es evidentemente de clase $C^2 (\R^2 )$ (de hecho es de clase $C^\infty$). Es inmediato calcular $$ f_x (x,y)=e^x \cos y ,\qquad f_{xx}(x,y)= e^x \cos y, $$ y $$ f_y (x,y)=-e^x \sin y ,\qquad f_{yy}(x,y)=- e^x \cos y, $$ por tanto, la laplaciana de $f$ es $$ \Delta f(x,y)=f_{xx}(x,y)+f_{yy}(x,y)=e^x \cos y -e^x \cos y \equiv 0, $$ y as\'{\i} $f$ es arm\'onica. \es Existen muchas aplicaciones f\'{\i}sicas de las funciones arm\'onicas pues describen con alto grado de precisi\'on diferentes fen\'omenos naturales. Por ejemplo, los procesos de conducci\'on del calor en estado estacionario (es decir, una vez que la temperatura del material conductor se ha estabilizado y que no var\'{\i}a en el tiempo) donde se considera el vector densidad del flujo de calor cuyo potencial $\phi (x,y)$ (la temperatura en el medio conductor) satisface la ecuaci\'on de Laplace en todo punto del espacio donde no haya fuentes o sumideros de calor. Las funciones arm\'onicas aparecen tambi\'en al describir el flujo de un fluido {\em ideal} (no viscoso pues no hay p\'erdidas de energ\'{\i}a por fricci\'on interna) incompresible donde se considera el campo de velocidades de un fluido irrotacional (ausencia de v\'ortices o remolinos) cuyo potencial es arm\'onico o en la teor\'{\i}a de la electrost\'atica donde la concentraci\'on del flujo el\'ectrico en un punto del espacio se describe por medio del vector densidad de flujo el\'ectrico cuyo potencial electrost\'atico verifica, en una regi\'on sin cargas, la ecuaci\'on de Laplace. \subsubsection{Laplaciana bidimensional en coordenadas polares} La introducci\'on de coordenadas polares: $$ x=r\cos \theta ,\quad y=r \sin\theta, $$ transforma $u(x,y)$ en $v(r,\theta)$ y considerando la laplaciana bidimensional: \begin{equation}\label{l2} \Delta u = \dderi{u}{x}+\dderi{u}{y}, \end{equation} se tiene (aplicando la regla de la cadena estudiada en el primer curso) la siguiente f\'ormula: $$ \Delta u\equiv %\dderi{u}{x}+\dderi{u}{y} = \dderi{v}{r} +\frac{1}{r}\deri{v}{r} + \frac{1}{r^2} \dderi{v}{\theta}. $$ \bejem Probar que la funci\'on $u(r,\theta )=r^2 \cos 2\theta$ es una funci\'on arm\'onica. \enejem Es an\'alogo al ejemplo hecho en coordenadas cartesianas. Escribiendo la ecuaci\'on de Laplace en coordenadas polares se tiene que $u$ es una funci\'on arm\'onica si $$ \dderi{u}{r} +\frac{1}{r}\deri{u}{r} + \frac{1}{r^2} \dderi{u}{\theta} \equiv 0. $$ Efectuando las derivaciones indicadas se tiene: $$ \dderi{u}{r}=2\cos 2\theta ,\quad \frac{1}{r}\deri{u}{r}=2\cos 2\theta ,\quad \frac{1}{r^2} \dderi{u}{\theta} =-4\cos 2\theta. $$ luego $u$ es arm\'onica. \es %paramem Un ejemplo de conducci\'on de calos estacionaria en un c\'{\i}rculo se %encuentra en el libro de Mei, pag 82. \subsubsection{Laplaciana tri-dimensional en coordenadas cil\'{\i}ndricas} La introducci\'on de coordenadas cil\'{\i}ndricas: $$ x=r\cos \theta ,\quad y=r \sin\theta ,\quad z=z, $$ transforma $u(x,y,z)$ en $v(r,\theta,z)$ y considerando la laplaciana tri-dimensional: \begin{equation}\label{l3} \Delta u = \dderi{u}{x}+\dderi{u}{y}+\dderi{u}{z}, \end{equation} se tiene (mediante aplicaci\'on de la regla de la cadena) la siguiente f\'ormula: $$ \Delta u %\dderi{u}{x}+\dderi{u}{y}+\dderi{u}{z} \equiv \dderi{v}{r} +\frac{2}{r}\deri{v}{r} + \frac{1}{r^2} \dderi{v}{\theta} +\dderi{v}{z}. $$ \subsubsection{Laplaciana tri-dimensional en coordenadas esf\'ericas} La introducci\'on de coordenadas esf\'ericas: $$ x=r\cos \theta \sin\phi ,\quad y=r \sin\theta \sin\phi ,\quad z=r\cos \phi, $$ transforma $u(x,y,z)$ en $v(r,\theta,\phi)$ y considerando la laplaciana tri-dimensional (\ref{l3}) se tiene (por aplicaci\'on de la regla de la cadena) la siguiente f\'ormula: $$ \Delta u %\dderi{u}{x}+\dderi{u}{y}+\dderi{u}{z} \equiv \dderi{v}{r} +\frac{2}{r}\deri{v}{r} + \frac{1}{r^2} \dderi{v}{\phi} +\frac{1}{r^2}\frac{\cos \phi}{\sin\phi}\deri{v}{\phi} + \frac{1}{r^2}\frac{1}{\sin\phi} \dderi{v}{\theta}. $$ \subsubsection{Laplaciana N-dimensional en coordenadas radiales} Un tipo de coordenadas extremadamente \'util en el estudio de problemas de transporte en los cuales existan ciertas condiciones de simetr\'{\i}a son las coordenadas radiales. Sea $\bfm{x}\in\Omega \subset\R^N$, $\bfm{x}=(x_1 ,x_2 ,..., x_N )$. Definimos el cambio de variables: $$ r=\dis \sqrt{x_1^2 + x_2^2 + .... +x_N^2},\qquad u(\bfm{x})=v(r). $$ Entonces se tiene que: $$ \Delta u \equiv \dis \frac{1}{r^{N-1}}\dis \frac{d}{dr} \left( r^{N-1}\dis\frac{dv}{dr}\right) = \dis \frac{d^2 v}{dr^2}+\dis \frac{N-1}{r}\frac{dv}{dr}. $$ %\subsection{Problemas de contorno: condiciones de contorno de Neumann, %Dirichlet y mixtas} \subsection{Algunos fen\'omenos f\'{\i}sico-t\'ecnicos que modelizan} Tal y como vimos en la secci\'on anterior las ecuaciones de Laplace y Poisson en dos o tres dimensiones aparecen en problemas que conciernen campos potenciales como el electrost\'atico, el gravitacional o el campo de velocidades (en mec\'anica de fluidos al trabajar con flujos potenciales incompresibles). Por ejemplo, la velocidad potencial para el flujo estacionario de un fluido incompresible y no viscoso satisface la ecuaci\'on de Laplace. En estas hip\'otesis tambi\'en la funci\'on de corriente verifica la ecuaci\'on de Laplace. Es la expresi\'on matem\'atica de la idea de que en ausencia de fuentes o sumideros la tasa con la cual el fluido incompresible entra en una regi\'on es la misma con la cual la deja. Una soluci\'on de la ecuaci\'on de Laplace se puede interpretar tambi\'en como la distribuci\'on de temperatura en un estado de equilibrio estable. Aparece por tanto en la descripci\'on de un r\'egimen (de conducci\'on) estacionario. Tambi\'en es indicativa para la descripci\'on del comportamiento de algunos sistemas transitorios (que evoluciona con el tiempo) que se estabilizan para tiempos grandes (a largo plazo). \es De forma parecida, el potencial el\'ectrico $V$ asociado a una distribuci\'on bidimensional de electrones con densidad de carga $\rho$ satisface la ecuaci\'on $$ \dderi{V}{x}+\dderi{V}{y} +\frac{\rho}{\epsilon} =0, $$ siendo $\epsilon$ la constante diel\'ectrica. Esta ecuaci\'on no es otra cosa que la expresi\'on del teorema de Gauss que afirma que el flujo el\'ectrico total a trav\'es de cualquier superficie cerrada es igual a la carga total encerrada por la superficie. \es Otra ecuaci\'on destacada de la Matem\'atica Aplicada es la ecuaci\'on el\'{\i}ptica bidimensional de difusi\'on-convecci\'on estacionaria $$ \dis \underbrace{\bfm{v}\cdot \nabla T}_{\mbox{convecci\'on}} =\underbrace{\epsilon\nabla^2 T}_{\mbox{difusi\'on}} , $$ que se verifica en un dominio $\Omega \subset\R^2$ donde el campo de velocidades $\bfm{v}$ es irrotacional, es decir, $$ \bfm{v}=(\psi_y ,-\psi_x ), $$ siendo $\psi (x,y)$ la funci\'on de corriente y donde $\epsilon$ es el coeficiente de dispersi\'on del medio. Las l\'{\i}neas de corriente del flujo son las curvas donde $\psi$ es constantes (v\'ease el ejemplo examinado al comienzo de este tema para el c\'alculo de las l\'{\i}neas de corriente en el flujo de un fluido). \subsection{$^*$ F\'ormulas de Green} Introduciremos ahora las {\bf f\'ormulas de Green}\footnote{Recu\'erdese que las f\'ormulas de Green ya han sido consideradas en la secci\'on 12.4 del tema 12 del primer curso. Un ejercicio interesante se encuentra propuesto (y resuelto) en el gui\'on de ejercicios.}, una herramienta muy importante en la teor\'{\i}a del potencial. Su aplicaci\'on a las funciones arm\'onicas permitir\'a deducir sus propiedades fundamentales. \es Recordemos en primer lugar el teorema de la divergencia (primer curso, tema 13) a partir del cual ser\'a posible deducir las f\'ormulas de Green. \beteor[Gauss-Ostrogradski] Sea $\Omega \subset\R^3 $ un dominio acotado limitado por la superficie ${\partial\Omega}$, orientable y cerrada. Sea $\bfm{F}:\,D \subset \R^3 \to \R^3$, $\Omega\subset D$, un campo vectorial $$ \bfm{F}(x,y,z)=P(x,y,z)\bfm{i}+Q(x,y,z)\bfm{j}+R(x,y,z)\bfm{k}, $$ tal que sus componentes $P$, $Q$ y $R$ son campos escalares continuos con derivadas parciales continuas en $\Omega$: $\bfm{F}\in (C^1 (\Omega ))^3$. Entonces el flujo del campo $\bfm{F}$ a trav\'es de la superficie (cerrada) ${\partial\Omega}$ es igual a la integral triple (integral de volumen) de la divergencia del campo: $$ \int_{{\partial\Omega}} \bfm{F}\cdot \bfm{n} ds =\int_{\Omega} \mbox{div}(\bfm{F}) dxdydz, $$ siendo $\bfm{n}$ el vector normal exterior a la superficie, y $$ \mbox{div}(\bfm{F})=\nabla\cdot \bfm{F} =\deri{P}{x}+\deri{Q}{y}+\deri{R}{z}, $$ el operador de divergencia. \enteor \es Utilizando el teorema de Gauss podemos ahora deducir las f\'ormulas de Green. \es Sean $\phi$, $\psi$ dos funciones escalares de clase $C^2$ en $\Omega$. \beobse Hip\'otesis de regularidad suficientes para la aplicaci\'on de las f\'ormulas de Green son: $\psi \in C^2 (\Omega)\cap C^1 (\bar{\Omega})$, $\phi \in C^1 (\Omega)\cap C^0 (\bar{\Omega})$ para la primera y $\psi,\phi \in C^2 (\Omega)\cap C^1 (\bar{\Omega})$ para la segunda f\'ormula de Green (ver Courant-Hilbert, pag 252). Tales hip\'otesis no son en realidad necesarias y es posible suponer una regularidad menor. Para ello es necesario conocer la teor\'{\i}a de distribuciones que no se contempla en este curso. \enobse Entonces, utilizando las propiedades del operador de divergencia: $$ \nabla\cdot (\phi \nabla \psi)=\nabla \phi\cdot \nabla\psi +\phi\nabla \cdot \nabla \psi =\nabla \phi\cdot \nabla\psi +\phi\Delta \psi $$ y considerando $\bfm{F}=\phi\nabla \psi$ en el teorema de la divergencia se tiene: \es \centerline{\underline{\bf Primera f\'ormula de Green}} \es \begin{equation}\label{fg1} \int_\Omega (\nabla \phi\cdot \nabla \psi +\phi\nabla^2 \psi )d\Omega = \int_{\partial\Omega} \phi \deri{\psi}{\bfm{n}}ds, \end{equation} donde $\dis \deri{\psi}{\bfm{n}}=\bfm{n}\cdot \nabla \psi$ es la componente normal exterior del vector gradiente. \es La relaci\'on (\ref{fg1}) se conoce con el nombre de primera f\'ormula de Green. Intercambiando $\phi$ y $\psi$ y restando se tiene la segunda f\'ormula de Green: \es \centerline{\underline{\bf Segunda f\'ormula de Green}} \es \begin{equation}\label{fg2} \int_\Omega (\phi \nabla^2 \psi -\psi\nabla^2 \phi )d\Omega = \int_{\partial\Omega} \left( \phi \deri{\psi}{\bfm{n}} -\psi\deri{\phi}{\bfm{n}}\right) ds. \end{equation} N\'otese finalmente que f\'ormulas an\'alogas se tienen en el plano y en dimensiones arbitrarias (ver Courant-Hilbert, pag 257). \es Utilizando las f\'ormulas anteriores es posible deducir las siguientes propiedades de las funciones arm\'onicas: \beteor\label{par1} Si $u \in C^2 (\Omega)\cap C^1 (\bar{\Omega})$ es una funci\'on arm\'onica y si $\partial \Omega$ es una superfice orientable y cerrada, entonces la integral de superficie de su derivada normal vale cero: \begin{equation}\label{gaussint} \int_{\partial\Omega} \deri{u}{\bfm{n}} =0 \end{equation} \enteor La demostraci\'on de lo anterior es inmediata considerando $\phi =1$, $\psi =u$ arm\'onica ($\Delta u=0$) y aplicando la primera f\'ormula de Green. La integral (de superficie) (\ref{gaussint}) se denomina Integral de Gauss. \es Si $\phi\in C^2 (\Omega)\cap C^1 (\bar{\Omega})$ es una funci\'on arm\'onica y consideramos $\phi=\psi$ en la primera f\'ormula de Green se obtiene la identidad: $$ \int_\Omega |\nabla \phi |^2 d\Omega =\int_{\partial\Omega} \phi\deri{\phi}{\bfm{n}}. $$ La integral de volumen que aparece en la f\'ormula anterior se conoce con el nombre de Integral de Dirichlet y juega un papel muy importante en la teor\'{\i}a del potencial. Una consecuencia inmediata de la identidad anterior es el siguiente teorema para funciones arm\'onicas: \beteor Siendo $u \in C^2 (\Omega)\cap C^1 (\bar{\Omega})$ una funci\'on arm\'onica, $\Omega \subset\R^3 $ un dominio acotado limitado por la superficie $\partial \Omega $ orientable y cerrada se verifica: \begin{enumerate} \item Si $u$ se anula en la superficie ${\partial\Omega}$ entonces $u\equiv 0$ en $\Omega$. \item Si $\dis \deri{u}{\bfm{n}}=0$ en ${\partial\Omega}$ entonces $u$ es constante en $\Omega$. \end{enumerate} \enteor La demostraci\'on es inmediata observando que en ambos casos $\dis \int_{\partial\Omega} \phi\deri{\phi}{\bfm{n}}=0$ luego la integral de Dirichlet es nula y por tanto $u$ es constante. En el primer caso adem\'as la constante tiene que coincidir con el valor en la frontera (que es cero). \es Si $\Omega$ es una esfera de centro $(x_0 ,y_0 ,z_0 )$, radio $R$, superficie ${\partial\Omega}$ y $u$ es una funci\'on arm\'onica que satisface el teorema (\ref{par1}) se tiene: $$ u(x_0 ,y_0 ,z_0 )=\frac{1}{4\pi R^2}\int_{\partial\Omega} u ds, $$ es decir: \beteor\label{mean} El valor de una funci\'on arm\'onica en un punto $(x_0 ,y_0 ,z_0 )$ es igual a la media aritm\'etica de sus valores en cada esfera centrada en $(x_0 ,y_0 ,z_0 )$. \enteor El teorema (\ref{mean}) tiene importante consecuencias: \subsubsection{Principio del m\'aximo para funciones arm\'onicas} \beteor\label{maxar} Sea $u$ una funci\'on regular en una regi\'on conexa $\Omega$ y continua en la superficie ${\partial\Omega}$ que la limita. Entonces el valor m\'aximo y m\'{\i}nimo de $u$ se alcanzan en la frontera ${\partial\Omega}$. La funci\'on $u$ alcanza sus valores m\'aximo y m\'{\i}nimo en el interior $\Omega$ si y s\'olo si $u$ es constante. \enteor \becoro\label{const} Si una funci\'on arm\'onica $u$, regular en $\Omega$ y continua en la frontera ${\partial\Omega}$ es constante en ${\partial\Omega}$ entonces es constante en todo $\Omega$. \encoro \subsubsection{Unicidad para la ecuaci\'on de Laplace} Una simple aplicaci\'on de la primera f\'ormula de Green permite demostrar la unicidad de soluciones de la ecuaci\'on de Laplace en un volumen $\Omega\subset \R^3$ con condiciones Dirichlet no homog\'eneas en la superficie del volumen ${\partial\Omega}$. \footnote{Este tipo de razonamiento se puede extender para obtener la unicidad de la soluci\'on de la ecuaci\'on de Laplace con condiciones de contorno m\'as generales.} \es Sean $\psi_1$ y $\psi_2$ dos soluciones de la ecuaci\'on de Laplace en un volumen $\Omega \subset \R^3$ sa\-tis\-fa\-cien\-do la condici\'on de contorno $\psi_i =f(x)$, $i=1,2$ en la frontera ${\partial\Omega}$. Entonces, por la linealidad del operador, se tiene que la funci\'on diferencia, $\Theta =\psi_1 -\psi_2 $ verifica $\Delta \Theta =0$ y $\Theta =0$ en la frontera y por la I f\'ormula de Green se tiene: $$ \int_\Omega \vert \nabla \Theta \vert^2 d\Omega = \int_{\partial\Omega} \Theta \deri{\Theta}{n} d{\partial\Omega}; $$ pero $\Theta =0$ en ${\partial\Omega}$, luego $$ \int_\Omega \vert \nabla \Theta \vert^2 d\Omega =0. $$ Por ser el integrando no negativo lo anterior implica $\vert \nabla \Theta \vert^2 =0$ en cualquier punto de $\Omega$ luego $\Theta$ es constante en $\Omega$ y como vale cero en ${\partial\Omega}$ se tiene: $\Theta \equiv 0$ y $\psi_1 \equiv \psi_2$. Otra forma de expresar este resultado (utilizando los teoremas anteriores) es la siguiente: \beteor\label{unilap} Dos funciones arm\'onicas en $\Omega$ que sean continuas en $\Omega \cup {\partial\Omega}$ y coincidan en ${\partial\Omega}$ son id\'enticas en todo $\Omega$. \enteor La demostraci\'on es inmediata observando que la diferencia entre dos funciones arm\'onicas que satisfagan el teorema (\ref{unilap}) es tambi\'en una funci\'on arm\'onica que se anula en la frontera luego, por el corolario (\ref{const}), es id\'enticamente nula en $\Omega$. %%%%%%%%%%%%%%%%%%%%% FIN ELIPTICAS %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% %%%%%%%%%%%%%%%%%%%%%%%%% PARABOLICAS %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{Ecuaciones parab\'olicas.} Las ecuaciones en derivadas parciales de segundo orden de tipo parab\'olico se presentan al estudiar los procesos de conducci\'on t\'ermica, difusi\'on de materia y en general procesos termodin\'amicos. Modelizan fen\'omenos transitorios, de evoluci\'on (en contraposici\'on con los estados de equilibrio de las ecuaciones el\'{\i}pticas, estacionarias), donde el estado del sistema var\'{\i}a con el tiempo. En general, tales fen\'omenos de difusi\'on pueden completarse con procesos de convecci\'on y dispersi\'on que aparecen, por ejemplo, en varios modelos de difusi\'on de contaminantes o en filtraci\'on de aguas subterr\'aneas. \subsection{La ecuaci\'on de difusi\'on y algunas variantes} Empezaremos por el caso m\'as sencillo: la ecuaci\'on parab\'olica de conducci\'on t\'ermica uni-dimensional, conocida con el nombre de ecuaci\'on del calor: \begin{equation}\label{k1} \deri{u}{t}=\dderi{u}{x},\qquad 0\leq x\leq 1,\quad t>0. \end{equation} N\'otese la ausencia de fuentes de calor internas al sistema (la ecuaci\'on es, en efecto, homog\'enea). Las ecuaciones del tipo (\ref{k1}) se resolver\'an anal\'{\i}ticamente en el tema 2 (mediante el m\'etodo de separaci\'on de variables) y en el tema 3 (mediante la t\'ecnica de la transformada de Laplace) donde se considerar\'an situaciones m\'as generales. La ecuaci\'on (\ref{k1}) puede ser generalizada de distintas formas: \es \begin{enumerate} \item Introduciendo un t\'ermino de fuente (o sumidero) estacionario $q(x)$ en el interior del dominio: \begin{equation}\label{ak4} \deri{u}{t}=\dderi{u}{x}+q(x),\qquad 0\leq x\leq 1,\quad t>0, \end{equation} donde $q(x)>0$ si es una fuente y $q(x)<0$ si es un sumidero. La ecuaci\'on (\ref{ak4}) aparece en problemas de conducci\'on de calor transitorios (evolutivos) con generaci\'on de energ\'{\i}a. El t\'ermino de generaci\'on de energ\'{\i}a (o t\'ermino de fuente) $q(x)$ se conoce en la literatura como {\em steady forcing} (fuente estacionaria). Este tipo de ecuaciones se puede resolver anal\'{\i}ticamente con algunas variantes de los m\'etodos que se utilizan para las ecuaciones del tipo (\ref{k1}). Un ejemplo de aplicaci\'on a un problema concreto se puede encontrar en el libro de Mei, pag 75. \item Introduciendo un t\'ermino de fuente transitorio (o fuente de calor) en el interior del dominio: \begin{equation}\label{k4} \deri{u}{t}=\dderi{u}{x}+f(x,t),\qquad 0\leq x\leq 1,\quad t>0, \end{equation} siendo $f(x,t)>0$. La ecuaci\'on (\ref{k4}) es la cl\'asica ecuaci\'on de reacci\'on-difusi\'on lineal. El t\'ermino de generaci\'on de energ\'{\i}a $f(x,t)$ se conoce en la literatura como {\em transient forcing} (fuente transitoria). Tambi\'en este tipo de ecuaciones se puede resolver an\'aliticamente con algunas variantes de los m\'etodos que se utilizan para las ecuaciones del tipo (\ref{k1}) y (\ref{ak4}). Un ejemplo de aplicaci\'on a un problema concreto se puede encontrar en el libro de Mei, pag 75. \item Considerando los efectos de disipaci\'on viscosa (producci\'on de energ\'{\i}a t\'ermica y disipaci\'on de la energ\'{\i}a mec\'anica) en el interior del dominio debidos a procesos termodin\'amicos: \begin{equation}\label{k44} \deri{u}{t}=\dderi{u}{x}+f(x,t,u),\qquad 0\leq x\leq 1,\quad t>0, \end{equation} siendo $f(x,t,u)>0$. Debido al signo (positivo) de $f(x,t,u)$ este t\'ermino tiene el efecto cualitativo de generar crecimiento en las soluciones, pudiendo aparecer efectos de {\em blow up} (singularidades o {\em explosiones}) de las mismas soluciones que tienen as\'{\i} un car\'acter local. La ecuaci\'on (\ref{k44}) es {\bf lineal} si $f(x,t,u)$ es lineal en $u$. Si $f(x,t,u)$ no es lineal en $u$ entonces se dice {\bf semilineal}. Si $f$ fuese del tipo $f(x,t,u,u_x)$, es decir si dependiera tambi\'en de la derivada parcial primera $u_x$ y adem\'as lo hiciera en forma no lineal entonces la ecuaci\'on ser\'{\i}a de tipo {\bf cuasilineal}. \item Incluyendo un t\'ermino de absorci\'on (o sumidero) en el interior del dominio: \begin{equation}\label{k444} \deri{u}{t}=\dderi{u}{x}-f(x,t,u),\qquad 0\leq x\leq 1,\quad t>0, \end{equation} siendo $f(x,t,u)>0$. Valen las mismas consideraciones sobre el car\'acter de linealidad de (\ref{k444}) hechas en el caso anterior. Cualitativamente el t\'ermino de absorci\'on causa un decaimiento en los perfiles de las soluciones. En la forma $f(x,t,u)=u$ y en problemas de conducci\'on de calor, se le conoce como el t\'ermino de enfriamiento de Newton. \item Permitiendo un coeficiente de difusi\'on variable espacialmente \begin{equation}\label{k5} \deri{u}{t}=\deri{}{x}\left[a(x)\deri{u}{x}\right], \qquad 0\leq x\leq 1,\quad t>0, \end{equation} siendo $a=a(x)$ una funci\'on positiva y acotada en $[0,1]$, es decir $00. \end{equation} La ecuaci\'on (\ref{ak5}) describe fen\'omenos de filtraci\'on en medios porosos donde la expresi\'on t\'{\i}pica del coeficiente es $a(x,u)=u^m$ o procesos de conducci\'on calor\'{\i}fica en un medio cuya conductibilidad t\'ermica depende de la propia temperatura. Son ecuaciones de tipo {\bf no lineal} y no suelen tener soluciones anal\'{\i}ticas exactas, especialmente cuando se complementan con un t\'ermino de fuente $f(x,t)$. En estos casos se suelen calcular num\'ericamente las soluciones de (\ref{ak5}). \item Modelizando el flujo de fluidos no newtonianos mediante un coeficiente del tipo $a(x,u,u_x )$: \begin{equation}\label{bk5} \deri{u}{t}=\deri{}{x}\left[a(x,u,u_x ) \deri{u}{x}\right],\qquad 0\leq x\leq 1,\quad t>0. \end{equation} Los comentarios hechos para (\ref{ak5}) valen, obviamente, en este caso m\'as general. No suele ser posible resolver\footnote{En realidad, como ya observamos, la posibilidad de resoluci\'on anal\'{\i}tica no est\'a descartada en presencia de ciertas simetr\'{\i}as en la ecuaci\'on y en las condiciones de contorno. En tal caso se suele usar el m\'etodo de combinaci\'on de variables que es un m\'etodo aplicable al caso lineal en los supuestos anteriores. M\'as detalles sobre este m\'etodo se ver\'an en el tema 3.} este tipo de ecuaciones en forma exacta y hay que acudir a m\'etodos num\'ericos. \item Considerando fen\'omenos de con\-vec\-ci\'on (por ejemplo en pro\-ble\-mas de fluido\-di\-n\'a\-mi\-ca) \begin{equation}\label{kx} \deri{u}{t}+V(x,t)\deri{u}{x}=\mu \dderi{u}{x},\qquad 0\leq x\leq 1,\quad t>0, \end{equation} siendo $V(x,t)$ una distribuci\'on de velocidades en la direcci\'on longitudinal $x$ conocida. La ecuaci\'on (\ref{kx}) es una ecuaci\'on de difusi\'on-convecci\'on. Es lineal pues $V(x,t)$ es un dato del problema independiente de $u$. La inc\'ognita $u$ suele representar la concentraci\'on de un contaminante (o m\'as en general de una especie qu\'{\i}mica) o la temperatura de un fluido y $\mu$ es el coeficiente de difusi\'on del medio. \item Si $V(x,t)=u(x,t)$, siendo $u$ la inc\'ognita del problema representando un campo de velocidades en la direcci\'on $x$ se tiene \begin{equation}\label{burger} \deri{u}{t}+u\deri{u}{x}=\mu \dderi{u}{x},\quad t>0. \end{equation} Si $\mu =\epsilon$, siendo $0<\epsilon \ll 1 $ un par\'ametro peque\~no, la ecuaci\'on anterior modeliza flujos poco viscosos y se conoce en la literatura como la ecuaci\'on de B\"{u}rgers. La ecuaci\'on (\ref{burger}) es una ecuaci\'on de tipo no lineal debido al t\'ermino no lineal $\dis uu_x$ de convecci\'on. El t\'ermino de {\em viscosidad} $\dis \epsilon u_{xx}$ tiene un papel {\em regularizante} sobre las soluciones. En el l\'{\i}mite $\epsilon\to 0$ se tiene la ecuaci\'on hiperb\'olica de primer orden considerada en la primera parte de este tema. Se pierden las propiedades regularizantes propias de la ecuaci\'on del calor y se pueden desarrollar singularidades en forma de ondas de choque. \item Simulando fen\'omenos de dispersi\'on: \begin{equation}\label{k4k} \dis c(x,t)\deri{u}{t}=\dderi{u}{x},\qquad 0\leq x\leq 1,\quad t>0, \end{equation} siendo $c(x,t)>0$. En problemas t\'ermicos $c(x,t)$ est\'a relacionada con la capacidad calor\'{\i}fica del medio. En problemas de flujo con el coeficiente de almacenamiento. %En problemas de transporte \item Dejando variar $x$ en todo $\R$ se pueden considerar problemas en dominios infinitos: \begin{equation}\label{k6} \deri{u}{t}=\dderi{u}{x},\qquad -\infty < x <\infty ,\quad t>0. \end{equation} Dos aplicaciones concretas de este tipo de modelos se encuentran en el libro de Mei, pag 137 y 139. Este tipo de problemas de difusi\'on (o conducci\'on) unidimensional en dominios no acotados se resolver\'an an\'aliticamente mediante el m\'etodo de la Transformada de Fourier en el tema 3. Se suelen completar con condiciones de decaimiento en el infinito ($u\to\pm\infty$ cuando $|x|\to\infty$) y con condiciones iniciales especiales que simulan impulsos (fuerzas puntuales, localizadas) aplicadas al sistema. Tambi\'en se modelizan problemas con cargas puntuales o temperaturas iniciales discontinuas. \item Dejando variar $x$ en todo $\R^+ =(0 ,\infty)$ (dominio semi-infinito): \begin{equation}\label{k6k} \deri{u}{t}=\dderi{u}{x},\qquad 0< x <\infty ,\quad t>0. \end{equation} Nuevamente se trata de procesos de difusi\'on o conducci\'on unidimensional. Se suelen resolver con el m\'etodo de las Transformadas senos y cosenos de Fourier. Analizaremos algunos casos modelo en el segundo tema. \item Considerando m\'as variables espaciales: \begin{equation}\label{k7} \deri{u}{t}=\Delta u,\qquad x \in\Omega \subset \R^n ,\quad t>0, \end{equation} siendo $\Omega$ un dominio acotado. Para $n=2$ se puede encontrar un ejemplo de proceso de conducci\'on de calor bidimensional en un rect\'angulo en el libro de Mei, pag 78. Varios ejemplos aparecen tambi\'en en el libro de Zill y en general en la bibliograf\'{\i}a comentada al final del cap\'{\i}tulo. En el tema 2 desarrollaremos un ejemplo de difusi\'on de la concentraci\'on de una especie qu\'{\i}mica en un dominio circular. \item Incluyendo varios de los fen\'omenos y casos anteriores en la clase de ecuaciones parab\'olicas cuasilineales: \begin{equation}\label{k77} \dis c\deri{u}{t}=\Delta u +f(x,t,u,\nabla u),\qquad x \in\Omega \subset \R^n ,\quad t>0, \end{equation} de reacci\'on-difusi\'on-dispersi\'on-convecci\'on. \end{enumerate} Las ecuaciones anteriores y otras similares se tienen que complementar con una condici\'on inicial y adecuadas condiciones en el contorno del dominio para obtener problemas de valor inicial y de contorno o problemas (el\'{\i}pticos) s\'olo de contorno que est\'en bien planteados. En el caso de dominios no acotados (sin contorno, del tipo que aparece en (\ref{k6k})), complementando la ecuaci\'on con una condici\'on inicial se obtiene el problema de Cauchy o de valor inicial para ecuaciones en derivadas parciales.%visto en el (\ref{ejemplo1}) \es %Obviamente estos tipos de situaciones se pueden combinar entre ellos para %generar distintos modelos. \subsection{$^*$ Algunos fen\'omenos f\'{\i}sico-t\'ecnicos que modelizan} Ilustramos aqu\'{\i}, muy brevemente, otros modelos matem\'aticos (algunos b\'asicos y otros avanzados) que aparecen en las ciencias aplicadas\footnote{V\'ease el libro de A.C. Fowler, Mathematical Models in the Applied Sciences. (1997).}. \es El proceso de difusi\'on (de materia o calor por ejemplo) se vuelve m\'as interesante cuando otros procesos tienen lugar. Por ejemplo, si durante una reacci\'on qu\'{\i}mica se libera calor internamente con una tasa, digamos $f(T)$, por unidad de volumen entonces la ecuaci\'on del calor toma la forma: $$ T_t =\dis \nabla^2 T +f(T). $$ Aunque las soluciones existan y sean \'unicas para las elecciones t\'{\i}picas que aparecen en las aplicaciones, \'estas no tienen porque existir para todo tiempo $t$. As\'{\i}, podemos ver que $T$ se hace singular en un tiempo finito si $f^{''} >0$ (funciones convexas), caso, por ejemplo en el que $f(T)=T^2$ y este fen\'omeno se conoce como {\em blow up}. El ejemplo m\'as conocido es cuando $f(T)=\lambda e^T$ que aparece en teor\'{\i}a de la combusti\'on. Este fen\'omeno es propio de la difusi\'on no lineal. \es Otra ecuaci\'on de difusi\'on no lineal viene dada por ejemplo por la ecuaci\'on de calor con conductibilidad t\'ermica dependiente de la temperatura: $$ \rho c_p T_t =\dis \nabla \left( k(T)\nabla T \right). $$ Informaci\'on sobre este tipo de dependencia en los modelos qu\'{\i}micos se puede encontrar en el vol 2 del libro de Costa Novella sobre Fen\'omenos de Transporte donde hay una aplicaci\'on concreta pero al caso unidimensional (EDO). \es El flujo de un gas en un medio poroso es otro fen\'omeno t\'{\i}pico de difusi\'on no lineal. Para verlo, se considera la ley de conservaci\'on (de la masa) $$ \rho_t +\nabla \cdot \bfm{q} =0, $$ donde $\bfm{q}$ es el flujo (de materia) y $\rho$ la densidad del gas. En analog\'{\i}a con la ley de Fourier y la ley de Fick, este flujo viene dado (en hip\'otesis de flujo lento) por la ley de Darcy: $$ \bfm{q}=-\dis \frac{k}{\mu}\rho \nabla p, $$ donde $k$ es la {\em permeabilidad} y $\mu$ la viscosidad del gas. Aqu\'{\i} $p$ representa la presi\'on (res\-pon\-sa\-ble del flujo). Finalmente, utilizando la ley constitutiva para los gases perfectos (o ideales) $p=\rho RT$ se tiene que (en hip\'otesis de flujo isotermo, es decir, $T$ constante): $$ \rho_t =\dis \nabla \cdot \left[ \left\{ \dis\frac{kRT}{\mu}\right\} \rho\nabla \rho \right], $$ que es una ecuaci\'on del tipo (\ref{ak5}). Esta ecuaci\'on, escrita en variables a\-di\-men\-sio\-na\-les adecuadas se puede resolver mediante el m\'etodo de combinaci\'on de variables que estudiaremos en el tercer tema de esta asignatura. N\'otese que el coeficiente de difusi\'on $a(x,\rho)=c\rho$ ($c=kRT/\mu$ es constante) tiende a cero cuando $\rho$ tiende a cero, un comportamiento muy interesante conocido con el nombre de {\em degeneraci\'on} y que consideraremos m\'as adelante. S\'olo observamos que la se\~nal evidente de difusi\'on no lineal degenerada es la existencia de un frente que se propaga con velocidad finita (contrariamente al caso de la ecuaci\'on del calor propiamente dicha donde hay velocidad inifinita de propagaci\'on de las perturbaciones). Digamos que las ecuaciones parab\'olicas degeneradas tienen propiedades cualitativas m\'as propias de las ecuaciones hiperb\'olicas que de las parab\'olicas. \es Otro contexto donde se generan ecuaciones parab\'olicas no lineales degeneradas es el de la modelizaci\'on del flujo de aguas subterr\'aneas en un medio poroso no saturado. Complementando la Ley de Darcy con una ecuaci\'on para la conservaci\'on de la fase (o las fases\footnote{Por ejemplo en un yacimiento petrol\'{\i}fero las fases son petr\'oleo y agua.}) y siendo $\phi$ la porosidad del suelo, $\rho$ la densidad material (masa por unidad de volumen {\em del fluido}) la ecuaci\'on que describe el modelo para el flujo en un medio poroso r\'{\i}gido es: $$ \dis\deri{(\rho \phi )}{t} =\dis \nabla \cdot \left[ \dis\frac{k}{\mu}\rho\nabla \rho \right]. $$ Otro ejemplo es el flujo de agua en un terreno saturado que se describe (en el caso unidimensional y en la direcci\'on transversal $z$) mediante la ecuaci\'on: $$ \phi_t -V\phi_x =(D\phi_z )_z, $$ siendo $V$ y $D$ constantes positivas y $\phi$ la porosidad del medio. \es Ecuaciones del tipo (\ref{ak5}) (complementadas con un t\'ermino de reacci\'on del tipo $f(x,t)$) surgen tambi\'en al describir la evoluci\'on (en el caso isotermo) del espesor $h(x,t)$ de una capa de hielo, en la forma: $$ h_t =\dis \deri{}{x}\left[\frac{1}{3}h^3 h_x \right] +a(x,t). $$ En este caso $m=3$, y $a(x,t)$ es una funci\'on que representa la tasa de acumulaci\'on/ablaci\'on de hielo debida a las condiciones atmosf\'ericas y la ecuaci\'on es una ecuaci\'on de difusi\'on no lineal degenerada\footnote{Intuitivamente hay degeneraci\'on cuando el coeficiente de difusi\'on se anula en alguna sub-regi\'on del dominio. Se trata de un fen\'omeno propio de las ecuaciones no lineales (es decir no puede ocurrir en las ecuaciones lineales) pero no ocurre en todas las ecuaciones no lineales siendo caracterizado por un delicado balance entre la velocidad de difusi\'on y el tama\~no del dominio. Un estudio detallado se encuentra en el libro de J.I. D\'{\i}az sobre fronteras libres citado en la bibliograf\'{\i}a avanzada. N\'otese que el fen\'omeno puede darse tanto en ecuaciones el\'{\i}pticas como en ecuaciones parab\'olicas siendo necesario pero no suficiente el car\'acter no lineal del t\'ermino de difusi\'on.}. Excepto cuando $a(x,t)\equiv 0$ esta ecuaci\'on no puede ser resuelta anal\'{\i}ticamente. Se puede sin embargo analizar cuantitativamente (es decir, a nivel nu\-m\'e\-ri\-co) o cualitativamente (mediante m\'etodos de energ\'{\i}a). Tambi\'en es posible realizar un detallado an\'alisis asint\'otico (una t\'ecnica propia de la teor\'{\i}a de la perturbaci\'on). Una ulterior dificultad (especialmente a nivel num\'erico aunque existen t\'ecnicas avanzadas para su tratamiento) consiste en el hecho que el dominio donde se tiene que verificar la ecuaci\'on no es conocido {\em a priori} y tiene que ser determinado junto con la soluci\'on. El marco correcto en el cual considerar esta ecuaci\'on se construye mediante la teor\'{\i}a de operadores mult\'{\i}vocos y el problema es unilateral\footnote{Se trata de un tipo de formulaci\'on matem\'atica muy utilizado en mec\'anica de fluidos que permite incorporar al problema matem\'atico distintas fenomenolog\'{\i}as que satisfacen unas condiciones de admisibilidad f\'{\i}sica.} (del tipo problema de obst\'aculo). La teor\'{\i}a y el comportamiento cualitativo de las soluciones de esta ecuaci\'on no lineal depende, cr\'{\i}ticamente, de los valores de $m$ seg\'un que se tenga $01$ (caso degenerado). \es En general se emplea la ecuaci\'on (\ref{bk5}) (de tipo no lineal parab\'olico eventualmente degenerado) para modelizar las din\'amicas no lineales de los fluidos geof\'{\i}sicos. Por ejemplo, la expresi\'on $a(x,u,u_x )=| u_x |^{p-2} $ permite describir el flujo lento, viscoso, no newtoniano de las grandes masas de hielo polar que recubren la Ant\'artida y Groenlandia. Otro fluido geof\'{\i}sico no newtoniano es el magma. \es Finalizamos este tema con unos comentarios sobre los sistemas de ecuaciones en derivadas parciales. Es evidente (v\'eanse los comentarios en la primera secci\'on sobre los fen\'omenos de transporte) que una descripci\'on detallada del estado de un sistema se puede obtener a partir de la consideranci\'on simult\'anea de las ecuaciones en derivadas parciales que nacen al aplicar las leyes de conservaci\'on. Surgen as\'{\i} unos sistemas {\bf modelo} que aparecer\'an muy a menudo en la carrera de un ingeniero qu\'{\i}mico. El modelo fundamental o b\'asico, a partir del cual se obtienen otros casos digamos {\em habituales}, es el sistema de ecuaciones que se genera al considerar la ecuaci\'on de conservaci\'on de la masa (ecuaci\'on de continuidad) con la de conservaci\'on de la cantidad de movimiento (ecuaci\'on del equilibrio) para la descripci\'on del flujo de un fluido newtoniano. Nos referimos al sistema de {\bf Navier Stokes}: \begin{equation}\label{navier} \left\{ \begin{array}{rcl} \nabla \cdot \bfm{u} & = & 0, \\ [0.3cm] \noalign{\smallskip} \bfm{u}_t +(\bfm{u}\cdot \nabla )\bfm{u} & = & -\dis \frac{1}{\rho}\nabla p +\nu \nabla^2 \bfm{u}, \end{array}\right. \end{equation} siendo $\nu =\mu /\rho$ la {\em viscosidad cinem\'atica}, $\mu$ la viscosidad din\'amica, $\rho$ la densidad, $p$ la presi\'on y $\bfm{u}$ la velocidad. Si $U$ es una velocidad t\'{\i}pica del fluido y $l$ es una dimensi\'on t\'{\i}pica de la geometr\'{\i}a del flujo entonces el sistema (\ref{navier}) se puede escribir en variables adimensionales en la forma \begin{equation}\label{navieradi} \left\{ \begin{array}{rcl} \nabla \cdot \bfm{u} & = & 0, \\ [0.3cm] \noalign{\smallskip} \bfm{u}_t +(\bfm{u}\cdot \nabla )\bfm{u} & = & -\dis \nabla p +\frac{1}{\mbox{Re}}\nabla^2 \bfm{u}, \end{array}\right. \end{equation} siendo el par\'ametro adimensional Re$=Ul/\nu $ llamado {\bf n\'umero de Reynolds}. Si Re$\ll 1$ (es decir, para valores del n\'umero de Reynolds muy peque\~nos) el movimiento del flujo es muy lento (se llama {\bf flujo de Stokes}) y la ecuaci\'on del momento se puede aproximar por: $$ \nabla p =\nabla^2 \bfm{u}, $$ donde la presi\'on ha sido reescalada mediante $1/\mbox{Re}$. Se trata de una perturbaci\'on regular, al menos en dominios finitos. Si Re$\gg 1$ (es decir, si el n\'umero de Reynolds es muy grande) entonces la aproximaci\'on de la ecuaci\'on del equilibrio es la {\bf ecuaci\'on de Euler}: $$ \bfm{u}_t +(\bfm{u}\cdot \nabla )\bfm{u} = -\dis \nabla p, $$ que se obtiene en el l\'{\i}mite: $$ \dis \lim_{\mbox{Re}\to\infty}\dis \left( \frac{1}{\mbox{Re}}\nabla^2 \bfm{u} \right) \to 0. $$ Se trata de una perturbaci\'on singular pues al eliminar los efectos viscosos se reduce el orden de la ecuaci\'on y pueden aparecer muchas complicaciones. \es Tras el abanico de posibilidades evidenciado en esta secci\'on (y en las anteriores) podemos afirmar que las ecuaciones diferenciales en derivadas parciales gobiernan numerosos fen\'omenos que aparecen en f\'{\i}sica-matem\'atica. Esto no quiere decir que las ecuaciones ordinarias (que suelen aparecer en modelos m\'as b\'asicos) no puedan ser v\'alidas para modelizar adecuadamente un fen\'omeno. Tampoco es cierto (en general) que las ecuaciones ordinarias son simples y m\'as facilmente resolubles pero es evidente que las simplificaciones (mediante an\'alisis dimensional) de los modelos suelen empobrecer el grado de aproximaci\'on a la realidad del fen\'omeno f\'{\i}sico considerado. Digamos que se suele simplificar el modelo\footnote{Una t\'ecnica consolidada en la modelizaci\'on consiste en efecto en desmontar el modelo (deducido a partir de las leyes de conservaci\'on y de las leyes constitutivas) en sus piezas fundamentales, analizarlo y, tras ello, volver a considerar, uno a uno, los t\'erminos inicialmente despreciados para tener as\'{\i} una idea de los efectos producidos y de su importancia relativa.} hasta poder alcanzar una soluci\'on anal\'{\i}tica exacta o anal\'{\i}tica aproximada del mismo que permita va\-li\-dar los resultados num\'ericos. Tales simplificaciones suelen venir sugeridas por el an\'alisis dimensional (previo) de las ecuaciones lo que proporciona una aproximaci\'on {\em sensible} del modelo originario. Las ecuaciones en derivadas parciales representan, por tanto, un grado superior de aproximaci\'on a la realidad del fen\'omeno modelizado sin que ello haga in\'util o redundante el manejo de las ecuaciones ordinarias. N\'otese en efecto que utilizaremos EDO para resolver anal\'{\i}ticamente EDP. \es Para los ingenieros qu\'{\i}micos %(a quien est\'a dirigido este programa) el campo de aplicaci\'on dominante de las ecuaciones en derivadas parciales es, sin duda, el de los fen\'omenos de transporte entendi\'endose por ello el transporte difusivo-dispersivo-convectivo-reactivo de materia o transporte conductivo-convectivo de calor. Adem\'as las t\'ecnicas que veremos para su resoluci\'on tendr\'an m\'ultiples aplicaciones, por ejemplo la Transformada de Laplace al trabajar con control y dise\~no de experimentos o las series de Fourier en el an\'alisis de la estabilidad de los esquemas num\'ericos en diferencias finitas utilizados para aproximar las soluciones de las EDP. Di\-ga\-mos que proporcionaremos m\'etodos para resolver problemas con la idea de que el alcance de los m\'etodos vaya mucho m\'as all\'a de la resoluci\'on del problema inicialmente planteado. Entraremos en detalles en este tipo de problemas en los temas 2 y 3, al considerar algunos ejemplos concretos que se pueden encontrar, por ejemplo, en los libros de Costa Novella que aparecen en la bibliograf\'{\i}a. \es \newpage \section{Anexo} En esta secci\'on recordaremos r\'apidamente varios conceptos necesarios para el en\-ten\-di\-mien\-to de las otras secciones. Se trata de un material que b\'asicamente se vi\'o en el curso de primero pero que ha sido complementado con una interpretaci\'on directa y pr\'actica del lenguaje matem\'atico asociado a los conceptos de trayectorias y superficies en t\'erminos de la mec\'anica de fluidos. Sirven de enlace con la terminolog\'{\i}a adoptada en cursos paralelos a \'este. %En las secciones dedicadas %al movimiento de un fluido asociado a un campo vectorial de velocidades %se define la notaci\'on a utilizar y se introducen los conceptos %b\'asicos de %flujo, derivada material, \subsection{Introducci\'on a las trayectorias} Matem\'aticamente es \'util pensar en una curva $C$ como un conjunto de va\-lo\-res de una funci\'on que manda un intervalo de n\'umeros reales al plano o al espacio. A dicha aplicaci\'on le llamaremos {\bf trayectoria}. Por lo com\'un se denota una trayectoria mediante $\bfm{c}$. Entonces la imagen $C$ de una trayectoria corresponde a la curva. Frecuentemente escribimos $t$ como la variable independiente y la imaginamos como el tiempo, de manera que $\bfm{c}(t)$ es la posici\'on en el tiempo $t$ de una part\'{\i}cula en movimiento, la cual describe una curva conforme $t$ var\'{\i}a. Tambi\'en decimos que $\bfm{c}$ (la trayectoria) parametriza $C$ (la curva). \begin{dfn} Una {\bf trayectoria} en $\R^n$ es una aplicaci\'on $\bfm{c}:[a,b]\to \R^n$; Si $n=2$, es una {\bf trayectoria en el plano} y si $n=3$, es una {\bf trayectoria en el espacio}. La colecci\'on $C$ de puntos $\bfm{c}(t)$, conforme $t$ var\'{\i}a en $[a,b]$ se denomina {\bf curva}, y $\bfm{c}(a)$, $\bfm{c}(b)$ son sus {\bf puntos extremos}. Se dice que la trayectoria $\bfm{c}$ {\bf parametriza} la curva $C$. Si $\bfm{c}$ es una trayectoria en $\R^3$, podemos escribir: $$ \bfm{c}(t)=(x(t),y(t),z(t)), $$ y llamamos a $x(t),y(t),z(t)$ {\bf funciones componentes} de $\bfm{c}$. Formamos de manera an\'aloga las funciones componentes en $\R^2 $ o, en general, en $\R^n$. \end{dfn} Si imaginamos los puntos $\bfm{c}(t)$ como la curva descrita por una part\'{\i}cula y $t$ como el tiempo, es razonable definir el vector velocidad como sigue: \begin{dfn} Si $\bfm{c}$ es una trayectoria y es diferenciable, decimos que $\bfm{c}$ es una {\bf trayectoria diferenciable}. La {\bf velocidad} de $\bfm{c}$ en el tiempo $t$ se define mediante: $$ \bfm{c}' (t)=\dis \lim_{h\to 0}\frac{\bfm{c}(t+h)-\bfm{c}(t)}{h}. $$ La {\bf rapidez} de la trayectoria $\bfm{c}(t)$ es la longitud del vector velocidad: $|| \bfm{c}' (t) ||$. \end{dfn} Si $\bfm{c}(t) =(x(t),y(t))$ en $\R^2$ entonces: $$ \bfm{c}' (t)=(x' (t),y' (t)) =x' (t)\bfm{i}+y' (t)\bfm{j}, $$ y si $\bfm{c}(t) =(x(t),y(t),z(t))$ en $\R^3$ entonces: $$ \bfm{c}' (t)=(x' (t),y' (t),z' (t)) =x' (t)\bfm{i}+y' (t)\bfm{j} +z' (t)\bfm{k}. $$ %\begin{dfn}[Vector tangente] N\'otese que la velocidad $\bfm{c}' (t)$ es un vector {\bf tangente} a la trayectoria $\bfm{c}(t)$ en el tiempo $t$. Si $C$ es una curva descrita por $\bfm{c}$ y si $\bfm{c}' (t)\neq \bfm{0}$, entonces $\bfm{c}' (t)$ es un vector tangente a la curva $C$ en el punto $\bfm{c}(t)$. %\end{dfn} \es Si $\bfm{c}$ representa la trayectoria de una part\'{\i}cula que se mueve, entonces su {\bf vector velocidad} es una funci\'on vectorial $\bfm{v}=\bfm{c}' (t)$ (que depende de $t$) y su {\bf rapidez} es $|| \bfm{v}||$. La derivada $\bfm{a}=d\bfm{v}/dt =\bfm{c}^{''}(t)$ se llama {\bf aceleraci\'on } de la curva. Si la curva es $(x(t),y(t),z(t))$, entonces la aceleraci\'on en el tiempo $t$ est\'a dada por: $$ \bfm{a}(t)=x^{''}(t)\bfm{i}+ y^{''}(t)\bfm{j}+ z^{''}(t)\bfm{k}. $$ \es Muy a menudo se tratar\'a de evaluar campos escalares a lo largo de curvas en el espacio. Particularmente \'util es el siguiente resultado (que es un caso particular de la regla de la cadena): \beteor Sea $\bfm{c}:\R\to \R^3$, $\bfm{c}(t)=(x(t),y(t),z(t))$, una trayectoria diferenciable y $f:\R^3 \to \R$ un campo escalar. Sea $h:\R\to\R$ definida por: $$ h(t)=f(\bfm{c}(t))= f(x(t),y(t),z(t)). $$ Entonces, $$ \dis \frac{dh}{dt}=\nabla f(\bfm{c}(t))\cdot \bfm{c}' (t), $$ donde $\bfm{c}' (t)=(x' (t),y' (t),z' (t))$. \enteor \es Nos preguntamos cual es la longitud de una trayectoria. Puesto que la rapidez $|| \bfm{c}' (t)||$ es la tasa de cambio de la distancia recorrida respecto al tiempo, la distancia recorrida por un punto que se mueve a lo largo de la curva debe ser la integral de la rapidez respecto al tiempo sobre el intervalo de tiempo $[t_0 ,t_1 ]$. \begin{dfn} La longitud de una trayectoria, llamada {\bf longitud de arco} $s $ (tambi\'en se suele denotar por $\sigma$), es: $$ s \doteq \dis \int_{t_0}^{t_1} || \bfm{c}' (t)|| dt. $$ \end{dfn} Se deduce que la longitud de arco de la trayectoria $\bfm{c}(t)=(x(t),y(t),z(t))$, para $t_0 \leq t \leq t_1 $ es: $$ s \doteq \dis \int_{t_0}^{t_1} \sqrt{x' (t)^2 +y' (t)^2 +z' (t)^2} dt. $$ La {\bf funci\'on de longitud de arco} $s(t)$ para una trayectoria dada $\bfm{c}(t)$ se define por: $$ s(t) \doteq \dis \int_{t_0}^{t} || \bfm{c}' (\tau)|| d\tau, $$ y representa la distancia que una part\'{\i}cula, viajando por la trayectoria $\bfm{c}$, habr\'a re\-co\-rri\-do en el tiempo $t$ si comienza en el tiempo $t_0$; esto es, proporciona la longitud de $\bfm{c}$ entre $\bfm{c}(t_0 )$ y $\bfm{c}(t)$. \es Pasamos ahora a la definici\'on de la diferencial de la longitud de arco. \begin{dfn} Un {\bf desplazamiento infinitesimal} de una part\'{\i}cula que sigue una trayectoria: $$ \bfm{c}(t)=x(t)\bfm{i}+ y(t)\bfm{j}+ z(t)\bfm{k}, $$ es $$ d\bfm{s} = dx\bfm{i}+ dy\bfm{j}+ dz\bfm{k} = \dis \left(\frac{dx}{dt}\bfm{i}+ \frac{dy}{dt}\bfm{j}+ \frac{dz}{dt}\bfm{k} \right)dt, $$ y su longitud: $$ ds =\dis \sqrt{dx^2 +dy^2 +dz^2 }= \dis \sqrt{\left(\frac{dx}{dt}\bfm{i}\right)^2+ \left(\frac{dy}{dt}\bfm{j} \right)^2 +\left(\frac{dz}{dt}\bfm{k} \right)^2}dt, $$ es la {\bf diferencial de longitud de arco}. \end{dfn} La f\'ormulas anteriores nos ayudan a recordar la f\'ormula de la longitud de arco: $$ s =\dis \int_{t_0}^{t_1} ds, $$ y, en general, la definici\'on de {\bf integral de trayectoria} (o integral curvil\'{\i}nea o integral del campo escalar $f(x,y,z)$ a lo largo de la trayectoria). \begin{dfn} Sea $\bfm{c}: [a,b]\to\R^3$ una trayectoria de clase $C^1$ y $f: \bfm{c}(t)\subset \R^3 \to \R$ continua para cada $t\in [a,b]$. Se define entonces la integral de trayectoria del campo escalar $f$ como: $$ \dis \int_{\bfm{c}} fds\doteq \int_{t_0}^{t_1} f(x(t),y(t),z(t)) || \bfm{c}' (t) || dt. $$ \end{dfn} Los elementos diferenciales $ds$ con respecto de los cuales se integra vienen dados por la longitud de la diferencial de longitud de arco. N\'otese que, a veces, la integral de trayectoria se denota con: $$ \dis \int_{\bfm{c}} fds =\int_{\bfm{c}} f(x,y,z)ds =\dis \int_{t_0}^{t_1} f(\bfm{c} (t)) || \bfm{c}' (t) || dt. $$ %Las hip\'otesis de regularidad anteriores se puede %debilitar para incluir trayectorias de clase $C^1$ {\em a trozos} % funciones continuas {\em a trozos}, intendendo por ello %que la propiedad de continuidad aludida se puede perder %como mucho en un conjunto numerable de puntos (es decir que puede %existir un n\'umero infinito pero numerable de discontonuidades de salto. \es Un caso importante de la integral de trayectoria se presenta cuando la trayectoria $\bfm{c}$ des\-cri\-be una curva plana. Suponiendo que $f$ es una funci\'on real de dos variables la integral de trayectoria a lo largo de $\bfm{c}$ es: $$ \dis \int_{\bfm{c}} f(x,y) ds =\int_{t_0}^{t_1} f(x(t),y(t))\sqrt{x' (t)^2 +y' (t)^2} dt. $$ Otro tipo de integral de trayectoria, esta vez de un campo vectorial $\bfm{F}:\R^3 \to\R^3$ continuo sobre una trayectoria diferenciable con continuidad es la {\bf integral de l\'{\i}nea} (o integral de circulaci\'on). El elemento diferencial considerado es ahora $d\bfm{s}$ es decir la diferencial de longitud de arco. Con m\'as precisi\'on se tiene: \begin{dfn} Sea $\bfm{F}$ un campo vectorial continuo sobre la trayectoria $\bfm{c}$ de clase $C^1$ en $[t_0 ,t_1 ]$. Definimos la {\bf integral de l\'{\i}nea} de $\bfm{F}$ a lo largo de $\bfm{c}$ como $$ \dis \int_{\bfm{c}} \bfm{F}\cdot d\bfm{s} \doteq \dis \int_{t_0}^{t_1} \bfm{F}(\bfm{c} (t)) \cdot \bfm{c}' (t) dt. $$ \end{dfn} Para trayectorias que satisfagan $\bfm{c}' (t)\neq 0$, hay otra f\'ormula \'util para la integral de l\'{\i}nea. Siendo $\bfm{T}(t)=\bfm{c}' (t)$ el vector tangente a la trayectoria ($\bfm{t}=\bfm{c}' (t)/|| \bfm{c}' (t)||$ es el vector tangente unitario), tenemos: $$ \dis \int_{\bfm{c}} \bfm{F}\cdot d\bfm{s} \doteq \dis \int_{t_0}^{t_1} \bfm{F}(\bfm{c} (t)) \cdot \bfm{c}' (t) dt = \dis \int_{t_0}^{t_1} \left[ \bfm{F}(\bfm{c} (t)) \cdot \bfm{T} (t)\right]|| \bfm{c}' (t)|| dt. $$ Esta f\'ormula nos dice que la integral de l\'{\i}nea del campo vectorial es igual a la integral de trayectoria de su componente tangencial. \es Para campos vectoriales gradientes (o conservativos o irrotacionales) existe una f\'ormula muy f\'acil de c\'alculo %, que generaliza el teorema fundamental del c\'alculo, de sus integrales de l\'{\i}nea. \begin{dfn} Sea $f:\R^3 \to \R$ un campo escalar de clase $C^1$ sobre la trayectoria $\bfm{c}$ de clase $C^1$ en $[t_0 ,t_1 ]$. Entonces: $$ \dis \int_{\bfm{c}} \nabla f \cdot d\bfm{s} = f(\bfm{c} (t_1)) -f(\bfm{c} (t_0)). $$ \end{dfn} \es Volviendo al concepto de longitud de arco notamos que se puede extender a trayectorias en el espacio $n$-dimensional. V\'ease a este respecto la secci\'on 4.2, pag 260, del libro de Marsden y Tromba. \es Construimos ahora una {\bf reparametrizaci\'on} de $\bfm{c}$ mediante la longitud de arco. Para ello caracterizamos primero el concepto de reparametrizaci\'on. Sea $\bfm{c} (t)$ una trayectoria dada para $t\in [a,b]$. Sea $s=\alpha (t)$ una nueva variable donde $\alpha (t)$ una funci\'on de clase $C^1$ estr\'{\i}ctamente creciente definida en $[a,b]$. Las hip\'otesis efectuadas aseguran que para cada $s\in [\alpha (a),\alpha (b)] $ existe un $t$ \'unico tal que $\alpha (t)=s$. Definimos entonces la trayectoria $\bfm{d}: [\alpha (a),\alpha (b)]\to \R^3 $ mediante $\bfm{d}(s)=\bfm{c}(t)$. Las curvas imagenes de $\bfm{c}$ y $\bfm{d}$ son las mismas (es decir que $\bfm{d}$ es una reparametrizaci\'on de la curva imagen de la trayectoria $\bfm{c}$) y $\bfm{c}$ y $\bfm{d}$ tienen la misma longitud de arco. Elegimos ahora la funci\'on $\alpha (t)$, definiendo $$ s=\alpha (t)=\dis \int_a^t || \bfm{c}' (\tau )|| d\tau. $$ Si definimos $\bfm{d}$ como se hizo antes, mediante $\bfm{d}(s)=\bfm{c}(t)$ entonces se verifica que: $$ || \bfm{d}' (s) || =1. $$ Se dice entonces que $\bfm{d}(s)$ es una {\bf reparametrizaci\'on} de $\bfm{c}$ dada por la {\bf longitud de arco}. Una trayectoria parametrizada mediante la longitud de arco tiene rapidez unitaria. \es Pasamos a la definici\'on de los conceptos geom\'etricos de tangente unitaria, rapidez unitaria, vector normal principal y vector binormal. \begin{dfn} Dada una trayectoria $\bfm{c}:[a,b]\to\R^3$ tal que $\bfm{c}'(t)\neq 0$ para todo $t$ el vector $$ \bfm{t} (t)\doteq \dis \frac{\bfm{c}' (t)}{ || \bfm{c}' (t) ||} $$ es tangente a $\bfm{c}$ en $\bfm{c}(t)$ y, como $|| \bfm{t} || =1$, el vector $\bfm{t}$ se llama {\bf tangente unitaria} a $\bfm{c}$. \end{dfn} Dada una trayectoria parametrizada mediante la longitud de arco, digamos por $\bfm{c}(s)$, la {\bf curvatura} en un punto $\bfm{c}(s)$ sobre una trayectoria se define por: $$ k=|| \bfm{t}' (s)|| =|| \bfm{c}^{''} (s)||. $$ Pasamos ahora a la definici\'on de vector normal principal y vector binormal. \begin{dfn} Dada una trayectoria $\bfm{c} (t)$, si $\bfm{t}' (t)\neq \bfm{0}$ se tiene que el vector: $$ \bfm{n} (t)\doteq \dis \frac{ \bfm{t}' (t)}{ || \bfm{t}' (t) ||}, $$ es normal a $\bfm{t} (t)$ y es unitario. El vector $\bfm{n}$ se llama vector normal principal. Un tercer vector unitario que es perpendicular tanto a $\bfm{t}$ como a $\bfm{n}$ se define por $\bfm{b}=\bfm{t}\wedge \bfm{n}$ y se llama {\bf vector binormal}. Los vectores $\bfm{t}$, $\bfm{n}$ y $\bfm{b}$ forman un sistema de vectores ortogonales entre s\'{\i} que siguen la regla de la {\em mano derecha} y que se va moviendo a lo largo de la trayectoria. \end{dfn} \es Una aplicaci\'on muy importante del concepto de trayectoria consiste en la ca\-rac\-te\-ri\-za\-ci\'on de las {\bf l\'{\i}neas de flujo} de un campo vectorial. En mec\'anica de fluidos el campo vectorial a considerar es el campo de velocidades de un fluido. Un campo de velocidades se dice {\bf estacionario} en una regi\'on del espacio (o del plano para campos bidimensionales) si la velocidad del fluido que pasa por los puntos de la regi\'on considerada no cambia con el tiempo (n\'otese que esto no quiere decir que el fluido no se est\'a moviendo). Por ejemplo se dice que el flujo de agua por una tuber\'{\i}a es estacionario si en cada punto de la tuber\'{\i}a la velocidad del fluido que pasa por ese punto no cambia con el tiempo. \begin{dfn} Si $\bfm{F}$ es un campo vectorial, una {\bf l\'{\i}nea de flujo} para $\bfm{F}$ es una trayectoria $\bfm{c}(t)$ tal que verifica el sistema de EDO: $$ \bfm{c}' (t)=\bfm{F}(\bfm{c}(t)). $$ Esto es, el campo de velocidad de la trayectoria viene {\em generado} (o producido) por el campo vectorial $\bfm{F}$. \end{dfn} En el contexto del flujo de agua por una tuber\'{\i}a una l\'{\i}nea de flujo se puede asemejar a la trayectoria seguida por una part\'{\i}cula {\em peque\~na} (con densidad igual a la del fluido y rozamiento con \'el nulo) suspendida en el fluido. Por ello, las l\'{\i}neas de flujo se llaman, apropiadamente, {\bf l\'{\i}neas de corriente} o {\bf curvas integrales}. El vector velocidad $\bfm{v}$ de un fluido es tangente a una l\'{\i}nea de flujo y la expresi\'on de esta propiedad es $\bfm{v}\wedge \bfm{t} =\bfm{0}$, que es la ecuaci\'on vectorial del sistema de EDO que determina las l\'{\i}neas de flujo del campo dado por $\bfm{c}' (t)=\bfm{F}(\bfm{c}(t))$. Si $$ \bfm{c} (t)= (x (t),y (t),z (t)) =x (t)\bfm{i}+y (t)\bfm{j} +z (t)\bfm{k} ,\qquad \bfm{F}=\bfm{v}=P\bfm{i}+Q\bfm{j}+R\bfm{k}, $$ siendo $$ P= P(x,y,z),\qquad Q= Q(x,y,z),\qquad R= R(x,y,z),\qquad $$ se tiene que el sistema de EDO es: $$ \left\{\begin{array}{rcl} x' (t) & = & P (x (t), y(t),z(t)), \\ [0.2cm] \noindent{\smallskip} y' (t) & = & Q (x (t), y(t),z(t)), \\ [0.2cm] \noindent{\smallskip} z' (t) & = & Z (x (t), y(t),z(t)). \end{array}\right. $$ \bejem Probar que la trayectoria $\bfm{c}(t)=(\cos t,\sin t )$ es una l\'{\i}nea de flujo para el campo $\bfm{F} (x,y)=(-y ,x )$. Determinar las otras l\'{\i}neas de flujo. \enejem En primer lugar, interpretamos el campo vectorial como un campo de velocidades de un fluido: $$ \bfm{F}(x,y)=\bfm{v}(x,y)=(v_x (x,y), v_y (x,y) )= (-y ,x )=-y \bfm{i}+x \bfm{j}. $$ La imagen de la trayectoria dada es un c\'{\i}rculo. Para que sea una l\'{\i}nea de flujo debe verificar las ecuaciones $\bfm{c}' (t)=\bfm{F}(\bfm{c} (t))$, lo que es cierto pues: $$ \bfm{c}' (t) =-\sin (t )\bfm{i}+ \cos (t )\bfm{j}=F(\cos (t),\sin (t) )= -\sin (t )\bfm{i}+ \cos (t )\bfm{j}, $$ as\'{\i} que tenemos una l\'{\i}nea de flujo. Las otras l\'{\i}neas de flujo tambi\'en son c\'{\i}rculos. En efecto, puesto que $P(x,y)=-y$, $Q(x,y)=x$ y no hay dependencia en la variable $z$ (pues se trata de un flujo plano) se tiene que resolver: $$ \left\{\begin{array}{rcl} x' (t) & = & - y(t), \\ \noindent{\smallskip} y' (t) & = & x (t), \end{array}\right. $$ sujeto a las condiciones iniciales $x(t_0 )=x_0$, $y(t_0 )=y_0$. Utilizando las t\'ecnicas expuestas en el tema 14 de la asignatura de Elementos de Matem\'aticas y recordando la operaci\'on de exponenciaci\'on de matrices se deduce que las soluciones del sistema son: $$ \begin{array}{rcl} x (t) & = & R \cos (t-t_0 ), \\ \noindent{\smallskip} y (t) & = & R \sin (t -t_0), \end{array} $$ es decir, las trayectorias: $$ \bfm{c}(t)=(R \cos (t-t_0 ), R \sin (t-t_0 )), $$ cuyas im\'agenes son las curvas dadas por todos los c\'{\i}rculos centrados en el origen, de radio R y que {\em arrancan} en los puntos del semieje positivo de las $x$ dados por $(x_0 ,y_0 )=(R,0)$. Por cada punto del plano $xy$ y en cada instante de tiempo pasa una \'unica l\'{\i}nea de flujo. \subsubsection{Flujo de un campo} Es conveniente utilizar una notaci\'on especial para la \'unica soluci\'on que pasa por un punto dado en el tiempo $t=0$. Es posible razonar en una gen\'erica dimensi\'on $n$. \es Se fija una condici\'on inicial $\bfm{x}_0 =\bfm{x}(0)\in\R^n$ y se sigue a lo largo de la l\'{\i}nea de flujo durante un tiempo $t$ hasta alcanzar la nueva posici\'on $\phi (\bfm{x} ,t)$. Es decir, que $\phi (\bfm{x} ,t)\in\R^n$, se define como la posici\'on del punto en la l\'{\i}nea de flujo que pasa por $\bfm{x}_0$ despu\'es de haber transcurrido un tiempo $t$. Matem\'aticamente esto se traduce diciendo que $\phi (\bfm{x} ,t)$ est\'a definida como la soluci\'on del PVI asociado al sistema: $$ \left\{\begin{array}{rcl} \dis \deri{}{t}\phi (\bfm{x} , t) & = & \bfm{F} (\phi (\bfm{x}, t)), \\ \noindent{\smallskip} \phi (\bfm{x} ,0) & = & \bfm{x}_0. \end{array}\right. $$ La funci\'on $\phi$, que se considera como funci\'on de las variables $(\bfm{x} ,t)$, $\phi :\R^n \times [0,\infty )\to \R^n$ se llama {\bf flujo} de $\bfm{F}$. Se demuestra tambi\'en que $\phi$ es una funci\'on diferenciable. \es El concepto de flujo nos permite introducir el concepto del operador diferencial {\bf derivada material} de un campo escalar $f$ res\-pec\-to a un campo vectorial $\bfm{F}$. En concreto, sea $f(\bfm{x},t)$ una funci\'on con valores reales, $f:\R^n \times [0,\infty )$ y sea $\bfm{F}:\R^n \to \R^n$ un campo vectorial. \begin{dfn} Se define la {\bf derivada material} de un campo escalar $f$ con res\-pec\-to a un campo vectorial $\bfm{F}$ como: $$ \dis \frac{Df}{Dt}\doteq \dis \deri{f}{t} +\nabla f(\bfm{x} )\cdot \bfm{F}. $$ \end{dfn} La definici\'on anterior se interpreta observando que la derivada material coincide con la derivada con respecto de $t$ de $f$ transportada por el flujo de $\bfm{F}$, es decir, la derivada con respecto de $t$ de $f (\phi (\bfm{x},t ),t)$. \subsubsection{Flujos potenciales} Recordaremos en esta secci\'on las definiciones de la funci\'on potencial para flujos irrotacionales (potenciales). Este tipo de flujo es propio de los fluidos no viscosos (que m\'as adelante caracterizaremos como ideales o perfectos). En efecto, en un fluido sin viscosidad no pueden existir tensiones (fuerzas) tangenciales o rasantes (de cizalla) sobre sus elementos, y las fuerzas de presi\'on o campo que act\'uen sobre ellos, podr\'an provocar deformaciones pero nunca rotaciones de los mismos. Finalmente observamos que en los supuestos de flujo plano y estacionario las l\'{\i}neas de corriente de un flujo potencial siempre empiezan (y acaban) en el infinito. \es Sea $\bfm{v}=(v_x ,v_y ,v_z )$ un campo vectorial de velocidades estacionario\footnote{Esta hip\'otesis no es absolutamente necesaria. S\'olo simplifica el tratamiento matem\'atico.} tal que $\bfm{w}=\mbox{rot}\bfm{v}=0$ (es decir con vorticidad $\bfm{w}$ nula). Entonces existe una funci\'on potencial $\phi (x,y,z)$ tal que $\bfm{v}=\dis \nabla \phi$. Nos limitaremos aqu\'{\i} al caso bidimensional. Dependiendo del sistema de coordenadas se tiene: \vspace{0.5cm} \begin{center} \begin{tabular}{||l|l||} \hline\hline {\bf Sistema de Coord.} & {\bf Funci\'on potencial $\phi$} \\ \hline\hline %empeza la tabla 5.4 pag 226 deen ********************************************************* & \\ Rectangulares & $\displaystyle \bfm{v} =\displaystyle \left( v_x ,v_y \right)= \left( \deri{\phi}{x},\deri{\phi}{y}\right) $ \\ & \\ \hline & \\ Polares & $\displaystyle \bfm{v} =\displaystyle \left( v_r ,v_\theta \right)= \left( \deri{\phi}{r}, \frac{1}{r}\deri{\phi}{\theta}\right)$ \\ & \\ \hline \end{tabular} \end{center} \subsubsection{Flujos incompresibles} Recordaremos brevemente las definiciones de la funci\'on de corriente para flujos incompresibles en los sistemas de coordenadas rectangulares y cil\'{\i}ndricas. \es Obs\'ervese que los fluidos incompresibles se caracterizan por la condici\'on de divergencia nula. Si la densidad del fluido es constante entonces el fluido es, por supuesto, incompresible. Por otra parte existen fluidos incompresibles cuya densidad no es constante. En efecto, en condiciones isotermas, la compresibilidad de un fluido, $c$, se define mediante: $$ c=\dis \frac{1}{\rho}\frac{d\rho}{dp}, $$ siendo $\rho$ la densidad y $p$ la presi\'on del fluido. Si el fluido es incompresible: $$ \dis\frac{d\rho}{dp} =0. $$ Esto se cumple obviamente si $\rho$ (la densidad) es constante en todo el fluido. Tambi\'en se puede cumplir si $\rho$ no es constante {\it pero es independiente de la presi\'on}, $\rho =\rho (\bfm{x})$, $\bfm{x}\in \Omega$, como por ejemplo en el caso de flujos multif\'asicos incompresibles (agua-petr\'oleo, por ejemplo). En este sentido la incompresibilidad se puede traducir como {\em constancia de la densidad respecto a la presi\'on} (aunque pueda depender de otras variables que no sean a su vez funci\'on de la posici\'on. \es El flujo de un l\'{\i}quido siempre es incompresible (digamos que se puede despreciar el efecto de la compresibilidad) pero el flujo de un gas podr\'a tambi\'en ser considerado como tal (es decir puede fluir sin importantes variaciones de su densidad) si el flujo es subs\'onico\footnote{La clasificaci\'on del flujo de un gas en subs\'onico (flujo incompresible) y trans\'onico, supers\'onico o hipers\'onico (flujos compresibles) se realiza mediante el c\'alculo del n\'umero de Mach que expresa la relaci\'on entre la velocidad media del gas y la del sonido en su seno.} pero no deja de ser m\'as que una idealizaci\'on. Sea $\bfm{v}=(v_x ,v_y ,v_z )$ un campo vectorial de velocidades estacionario tal que $\mbox{div}\bfm{v}=0$ (es decir con divergencia nula). Entonces existe una funci\'on de corriente $\psi (x,y,z)$ tal que $\bfm{v}\cdot \nabla\psi =0$. Nos limitaremos aqu\'{\i} al caso bidimensional luego tendremos, respectivamente, cuatro casos:\vspace{-0.3cm} \begin{enumerate} \item[I] Coordenadas rectangulares con $v_z =0$ y ninguna dependencia en la variable $z$.\vspace{-0.2cm} \item[II] Coordenadas cil\'{\i}ndricas con $v_z =0$ y ninguna dependencia en la variable $z$ (son equivalentes a las coordenadas polares).\vspace{-0.2cm} \item[III] Coordenadas cil\'{\i}ndricas con $v_\theta =0$ y ninguna dependencia en la variable $\theta$.\vspace{-0.2cm} \item[IV] Coordenadas Esf\'ericas con $v_\phi =0$ y ninguna dependencia en la variable $\phi$.\vspace{-0.2cm} \end{enumerate} Dependiendo del sistema de coordenadas se tiene: \vspace{0.2cm} \begin{center} \begin{tabular}{||l|l||} \hline\hline {\bf Sistema de Coord.} & {\bf Funci\'on de corriente} \\ \hline\hline %empeza la tabla 5.4 pag 226 deen ********************************************************* & \\ I)\quad Rectangulares con $v_z =0$ & $\displaystyle \bfm{v} =\displaystyle \left( v_x ,v_y \right)= \left( \deri{\psi}{y},-\deri{\psi}{x}\right) $ \\ & \\ \hline & \\ II)\quad Cil\'{\i}ndricas con $v_z =0$ & $\displaystyle \bfm{v} =\displaystyle \left( v_r ,v_\theta \right)= \left( \frac{1}{r}\deri{\psi}{\theta},- \deri{\psi}{r}, \right)$ \\ & \\ \hline & \\ III)\quad Cil\'{\i}ndricas con $v_\theta =0$ & $\displaystyle \bfm{v} =\displaystyle \left( v_r ,v_z \right)= \left( \frac{1}{r}\deri{\psi}{z},- \frac{1}{r}\deri{\psi}{r}, \right)$ \\ & \\ \hline & \\ IV)\quad Esf\'ericas con $v_\phi =0$ & $\displaystyle \bfm{v} =\displaystyle \left( v_r ,v_\theta \right)= \left( \frac{1}{r^2 \sin\theta }\deri{\psi}{\theta},- \frac{1}{r\sin\theta} \deri{\psi}{r} \right)$ \\ & \\ \hline \end{tabular} \end{center} \subsubsection{Fluidos perfectos} Deduciremos ahora la {\bf ecuaci\'on de Euler} para un {\bf fluido perfecto} (o ideal) entendiendo por ello un fluido que fluye sin viscosidad\footnote{En muchos textos (v\'ease por ejemplo el vol. 2 sobre fen\'omenos de Transporte, cap\'{\i}tulo 1, secci\'on 7.4, pag 50 de los libros de Costa Novella) se identifican los fluidos perfectos como los fluidos cuyo flujo es no viscoso, incompresible e irrotacional. Otros textos a\~naden la hip\'otesis de flujo estacionario.} (el an\'alogo del rozamiento entre los s\'olidos). El flujo {\em real} es el flujo de los fluidos reales con viscosidad apreciable, siempre rotacional. \es Consideremos un fluido no viscoso que se mueve en un campo de velocidad $\bfm{v}$. Cuando decimos que el fluido es perfecto queremos decir que en cualquier parte del fluido $\Omega$, act\'uan fuerzas de presi\'on sobre la frontera $\partial \Omega$ a lo largo de su normal. Suponemos que la fuerza por unidad de \'area que act\'ua sobre $\partial \Omega$ es $-p\bfm{n}$, siendo $p(x,y,z,t)$ la funci\'on de {\bf presi\'on} (es un campo escalar). As\'{\i} la fuerza total de presi\'on que act\'ua sobre $\partial \Omega$ es: $$ \dis \bfm{F}_{\partial \Omega} =\mbox{Fuerza}\,=-\int\!\!\int_{\partial\Omega} p\bfm{n}d S. $$ \'Esta es una cantidad vectorial. Si aplicamos el teorema de la divergencia a cada componente del campo vectorial de fuerzas se tiene que: $$ \dis \bfm{F}_{\partial \Omega} =-\int\!\!\int\!\!\int_{\Omega} \nabla pdxdydz. $$ Sea $\phi_t (\bfm{x})=\phi (\bfm{x},t)$ el flujo del campo $\bfm{v}$ y sea $\Omega_t =\phi_t (\Omega )$ una regi\'on en movimiento. Aplicando la segunda ley de Newton a $\Omega_t$, la raz\'on de cambio (la variaci\'on) de la cantidad de movimiento de $\Omega_t$ es igual a la fuerza que act\'ua sobre ella: $$ \dis \frac{d}{dt}\tr_{\Omega_t} \rho\bfm{v}dxdydz = \dis \bfm{F}_{\partial \Omega_t } =-\dis \int\!\!\int\!\!\int_{\Omega_t} \nabla p\,dxdydz. $$ Utilizando la {\bf ecuaci\'on del transporte} que afirma que en cualquier regi\'on $\Omega_t$ que se mueve con el fluido se tiene: $$ \dis \frac{d}{dt}\tr_{\Omega_t} f(x,y,z,t)dxdydz = \dis \tr_{\Omega_t}\left( \frac{Df}{Dt}+f\mbox{div}\bfm{F}\right) dxdydz, $$ (siendo $Df/Dt$ el operador de derivaci\'on material) y aplicando el {\bf teorema del transporte} se obtiene: $$ \dis \tr_{\Omega_t}\left[ \deri{}{t}(\rho \bfm{v} )+ \bfm{v}\cdot \nabla (\rho \bfm{v}) +\rho \bfm{v}\mbox{div}\bfm{v}\right] dxdydz =-\dis \tr_{\Omega_t} \nabla p\,dxdydz. $$ Puesto que $\Omega_t$ es arbitraria (es decir que lo anterior es cierto para cualquier regi\'on que se mueve con el fluido), esto es equivalente a $$ \dis \deri{}{t}(\rho \bfm{v} )+ \bfm{v}\cdot \nabla (\rho \bfm{v}) +\rho \bfm{v}\mbox{div}\bfm{v} =-\dis\nabla p. $$ Utilizando la ecuaci\'on de continuidad $\rho_t +\mbox{div}\bfm{J}=0$ siendo $\bfm{J}=\rho\bfm{v}$ escrita en la forma: $$ \dis \deri{\rho}{t}+\bfm{v}\cdot \nabla \rho +\rho\mbox{div} \bfm{v} =0, $$ se deduce: \begin{equation}\label{aeuler} \rho \left(\deri{ \bfm{v}}{t}+\bfm{v}\cdot \nabla \bfm{v} \right)=-\nabla p, \end{equation} que es la ecuaci\'on de Euler para un fluido perfecto. Para fluidos compresibles, $p$ (la presi\'on) es una funci\'on dada (conocida) de $\rho$ (por ejemplo, para muchos gases $p=A\rho^\gamma$ para constantes $A$ y $\gamma$ dadas). Si, por otra parte el fluido es incompresible, $p$ se determina a partir de la condici\'on $\mbox{div}\bfm{v}=0$. En este caso, la condici\'on de divergencia nula complementada con la ecuaci\'on de Euler (\ref{aeuler}) gobiernan el movimiento del fluido. %\newpage \subsection{Representaciones de curvas y superficies} %apostol 2, pag 509 cap 12 Existen b\'asicamente tres m\'etodos de representaci\'on de superficies que permiten expresar anal\'{\i}ticamente tal lugar geom\'etrico\footnote{ Una superficie, a groso modo, puede identificarse con el lugar geom\'etrico de un punto que se mueve en el espacio con dos grados de libertad. V\'ease el libro de Apostol, Vol 2, cap\'{\i}tulo 12.} . Uno es la {\em representaci\'on impl\'{\i}cita} en el que se considera una superficie como un conjunto de puntos $(x,y,z)$ que satisfacen una ecuaci\'on de la forma: $$ F(x,y,z)=0. $$ Por ejemplo, la esfera de radio 1 y centro en el origen tiene la representaci\'on impl\'{\i}cita: $$ x^2 +y^2 +z^2 -1=0. $$ Algunas veces (v\'ease la secci\'on 9.13 del gui\'on del primer curso dedicada a las funciones definidas impl\'{\i}citamente) podemos despejar en la ecuaci\'on una de las coordenadas en funci\'on de las otras dos, por ejemplo, $z$ en funci\'on de $x$ e $y$. Cuando esto es posible obtenemos una {\em representaci\'on expl\'{\i}cita} dada por una o varias ecuaciones de la forma: $$ z=f(x,y). $$ Por ejemplo, al despejar $z$ en la representaci\'on impl\'{\i}cita anterior de la esfera se tiene: $$ z=\dis \sqrt{1-x^2 -y^2},\qquad z=\dis -\sqrt{1-x^2 -y^2}. $$ La primera es la representaci\'on expl\'{\i}cita de la semiesfera superior y la segunda de la inferior. \es Existe un tercer m\'etodo de representaci\'on de superficies que es m\'as \'util en el estudio de las mismas; es la {\em representaci\'on param\'etrica} o {\em vectorial} por medio de tres ecuaciones que expresan $x$, $y$, $z$ en funci\'on de dos par\'ametros $u$ y $v$: \begin{equation}\label{reprepara} x=X(u,v),\qquad y=Y(u,v),\qquad z=Z(u,v). \end{equation} Aqu\'{\i} el punto $(u,v)$ puede variar en un conjunto conexo bidimensional $\Omega$ en el plano $uv$, y los puntos $(x,y,z)$ correspondientes constituyen una porci\'on de superficie en el espacio $\R^3$. Este m\'etodo es an\'alogo al de la representaci\'on de una curva en $\R^3$ mediante tres ecuaciones con un solo par\'ametro. La presencia de los dos par\'ametros en (\ref{reprepara}) permite transmitir dos grados de libertad al punto $(x,y,z)$. Si introducimos el radio vector que une el origen con un punto gen\'erico $(x,y,z)$ de la superficie, podemos combinar las tres ecuaciones param\'etricas (\ref{reprepara}) en una ecuaci\'on vectorial de la forma: \begin{equation}\label{radiovec} \bfm{r}(u,v)=X(u,v)\bfm{i}+Y(u,v)\bfm{j}+Z(u,v)\bfm{k}, \end{equation} donde $(u,v)\in \Omega$. \'Esta es la llamada {\em ecuaci\'on vectorial} de la superficie. Existen muchas representaciones param\'etricas de la misma superficie. Una de ellas puede obtenerse a partir de la forma expl\'{\i}cita $z=f(x,y)$, tomando: $$ X(u,v)=u,\qquad Y(u,v)=v ,\qquad Z(u,v)=f(u,v). $$ \bejem La representaci\'on param\'etrica de una esfera de radio $a$ y centro en el origen es: $$ x=a\cos u\cos v ,\qquad y= a\sin u\cos v ,\qquad z=a\sin v. $$ Si elevamos al cuadrado las tres ecuaciones y sumamos resulta $$ x^2 +y^2 +z^2 =a^2 $$ y vemos que todo punto $(x,y,z)$ que satisface las ecuaciones param\'etricas est\'a en la esfera. \enejem Consid\'erese ahora una superficie representada por la ecuaci\'on vectorial (\ref{radiovec}). Si $X$, $Y$ y $Z$ son derivables en $\Omega$ podemos considerar los dos vectores: $$ \dis \deri{\bfm{r}}{u} =\dis \deri{X}{u}\bfm{i}+\deri{Y}{u}\bfm{j} +\deri{Z}{u}\bfm{k},\qquad \dis \deri{\bfm{r}}{v} =\deri{X}{v}\bfm{i}+\deri{Y}{v}\bfm{j} +\deri{Z}{v}\bfm{k}. $$ Ambos vectores son tangentes a la superficie. M\'as concretamente, el vector $\dis \partial \bfm{r}/\partial u$ es tangente a una $u$-curva en la superficie (con la expresi\'on $u$-curva se entiende una curva en la superficie que se obtiene manteniendo $v$ constante) y el vector $\dis \partial \bfm{r}/\partial v$ es tangente a una $v$-curva en la superficie (una curva en la superficie que se obtiene manteniendo $u$ constante). En general estos vectores no son ortogonales entre ellos y tampoco son unitarios. Sin embargo su producto vectorial es ortogonal a ambos luego es normal a la superficie. El producto vectorial: $$ \dis \bfm{N}\doteq \dis \deri{\bfm{r}}{u}\wedge \deri{\bfm{r}}{v} = \bfm{r}_{u}\wedge \bfm{r}_{v}, $$ se denomina {\bf producto vectorial fundamental} de la representaci\'on $\bfm{r}$. Si $(u,v)$ es un punto en $\Omega$ en el cual $\partial\bfm{r}/\partial u$ y $\partial\bfm{r}/\partial v$ son continuas y el producto vectorial fundamental no es nulo, el punto imagen $\bfm{r}(u,v)$ se llama {\em punto regular} de $\bfm{r}$. Los puntos donde al menos una de estas condiciones no se verifica se llaman puntos singulares. Una superfice se llama {\bf regular} si todos sus puntos son regulares. En cada punto regular los vectores $\partial\bfm{r}/\partial u$ y $\partial\bfm{r}/\partial v$ determinan un plano que tiene el vector $\partial\bfm{r}/\partial u \wedge \partial\bfm{r}/\partial v$ como normal. Por esta raz\'on el plano determinado por $\partial\bfm{r}/\partial u $ y $ \partial\bfm{r}/\partial v$ se llama {\bf plano tangente}. En cada punto regular de una superficie se designa como $\bfm{n}$ al vector unitario normal que tenga el mismo sentido que el producto vectorial fundamental: $$ \bfm{n}=\dis \dis \frac{\dis \deri{\bfm{r}}{u}\wedge \deri{\bfm{r}}{v} }{ \dis \left\| \deri{\bfm{r}}{u}\wedge \deri{\bfm{r}}{v}\right\| } = \dis \frac{\bfm{r}_{u}\wedge \bfm{r}_{v}}{\left\| \bfm{r}_{u}\wedge \bfm{r}_{v}\right\|}. $$ La continuidad de las derivadas parciales implica la continuidad de su producto vectorial y esto, a su vez, significa que el plano tangente se mueve con continuidad en una superfice regular. \es \beobse Una manera alternativa de calcular un vector normal unitario consiste en representar la superficie como $S(x,y,z)=0$ y utilizar la f\'ormula: $$ \bfm{n}=\dis \frac{\nabla S}{\left\| \nabla S \right\|}. $$ \enobse \es Aplicando lo anterior veremos ahora c\'omo se determina el vector normal a una superficie con representaci\'on expl\'{\i}cita $z=f(x,y)$. Para ello podemos usar $x$ e $y$ como par\'ametros lo que nos proporciona la ecuaci\'on vectorial: $$ \bfm{r}(x,y)=x\bfm{i}+y\bfm{j}+f(x,y)\bfm{k}. $$ Para calcular el producto vectorial fundamental observemos que, si $f$ es diferenciable, $$ \dis \deri{\bfm{r}}{x} =\bfm{i}+\deri{f}{x}\bfm{k},\qquad \dis \deri{\bfm{r}}{y} =\bfm{j} +\deri{f}{y}\bfm{k}. $$ Esto nos conduce a: $$ \dis \deri{\bfm{r}}{u}\wedge \deri{\bfm{r}}{v}= -\dis \deri{f}{x}\bfm{i}-\deri{f}{y}\bfm{j} +\bfm{k}. $$ N\'otese que el producto vectorial fundamental nunca es nulo para este tipo de re\-pre\-sen\-ta\-ci\'on puesto que la componente $z$ del producto vale $1$. Los \'unicos puntos singulares que pueden presentarse son los puntos en los que al menos una de las derivadas parciales $f_x$ o $f_y$ no es continua. \bejem Calcular el vector normal a la superficie dada por la ecuaci\'on: $$ z=f(x,y)=\dis\sqrt{1-x^2-y^2}, $$ que representa un hemisferio de radio $1$ y centro en el origen si $x^2 +y^2 \leq 1$. \enejem En primer lugar parametrizamos la superficie usando $x$ e $y$ como par\'ametros. La ecuaci\'on vectorial es: $$ \bfm{r}(x,y)=x\bfm{i}+y\bfm{j}+ \dis \left( \sqrt{1-x^2-y^2}\right) \bfm{k}. $$ N\'otese que $\bfm{r}$ aplica el disco unidad $D=\{(x,y)\,:\, x^2 +y^2 \leq 1 \,\}$ sobre el hemisferio y dicha aplicaci\'on es uno a uno\footnote{Recu\'erdese que esto quiere decir que puntos distintos en el disco unidad tienen imagen distinta en el hemisferio.}. Las derivadas parciales $\partial \bfm{r}/\partial x$, $\partial \bfm{r}/\partial y$ existen y son continuas en el interior del disco pero no existen en su frontera. Por consiguiente todo punto del ecuador es un punto singular de esta representaci\'on. En el interior del disco (donde $f$ es diferenciable) se tiene: $$ \dis \deri{\bfm{r}}{x}=\bfm{i}+\deri{f}{x}\bfm{k} =\bfm{i}-\frac{x}{\sqrt{1-x^2-y^2}}\bfm{k}, $$ $$ \dis \deri{\bfm{r}}{y}=\bfm{j}+\deri{f}{y}\bfm{k} =\bfm{j}-\frac{y}{\sqrt{1-x^2-y^2}}\bfm{k}. $$ El producto vectorial fundamental es: $$ \deri{\bfm{r}}{x}\wedge \deri{\bfm{r}}{y} =-\deri{f}{x}\bfm{i}-\deri{f}{y}\bfm{j} +\bfm{k} = \frac{x}{\sqrt{1-x^2-y^2}}\bfm{i}+\frac{y}{\sqrt{1-x^2-y^2}}\bfm{j} +\bfm{k}, $$ luego su norma es $$ \left\| \deri{\bfm{r}}{u}\wedge \deri{\bfm{r}}{v}\right\| =\dis \sqrt{\frac{x^2}{1-x^2-y^2}+\frac{y^2}{1-x^2-y^2} +1} =\dis \sqrt{\frac{1}{1-x^2 -y^2}}= \dis \frac{1}{\sqrt{1-x^2 -y^2}}. $$ El vector unitario normal a la superficie ser\'a por tanto, $$ \bfm{n}=\dis \dis \frac{\dis \deri{\bfm{r}}{x}\wedge \deri{\bfm{r}}{x} }{ \dis \left\| \deri{\bfm{r}}{x}\wedge \deri{\bfm{r}}{x}\right\| } =\left( \dis x,y,\sqrt{1-x^2 -y^2 }\right). $$ N\'otese que es unitario pues $\dis \left\| \bfm{n}\right\| =x^2+y^2 +1 -x^2 -y^2 =1$. \es A continuaci\'on se presentan unas tablas para los distintos sistemas de coordenadas m\'as utilizados, la expresi\'on de los operadores vectoriales de derivaci\'on en cada uno de los sistemas y la forma final de las ecuaciones de conservaci\'on utilizadas en numerosos problemas. \subsection{Tablas de operadores diferenciales} Es habitual trabajar en alguno de los tres sistemas de coordenadas siguientes: coor\-de\-na\-das cartesianas (tambi\'en llamadas rectangulares), %coordenadas polares, coordenadas cil\'{\i}ndricas y coordenadas esf\'ericas. Las coordenadas polares, que se usan en $\R^2$, se pueden obtener f\'acilmente al proyectar en el plano $z\equiv 0$ las coordenadas cil\'{\i}ndricas y no ser\'an descritas como caso aut\'onomo sino que se considerar\'an como un caso particular de las cil\'{\i}ndricas (que representan por tanto su generalizaci\'on a $\R^3$). %Ya se han introducido estos sistemas de coordenadas en el tema 11 %de la asignatura de primer curso al considerar el problema de la %integraci\'on m\'ultiple en dos y tres dimensiones, pues hemos %visto que ciertas curvas tienen una descripci\'on (ecuaci\'on) %m\'as simple en coordenadas polares que en cartesianas o ciertas %superficies y s\'olidos en el espacio se pueden describir m\'as %f\'acilmente en coordenadas ci\'{\i}ndricas y esf\'ericas que en %cartesianas. Su utilidad fue por tanto simplificar la operaci\'on %de integraci\'on m\'ultiple para el c\'alculo, por ejemplo, de %\'areas, vol\'umenes, centros de gravedad y momentos de inercia. %En el tema 12 de la asignatura de primer curso dedicado a la %teor\'{\i}a de campos se definieron los operadores de derivaci\'on %vectoriales gradiente, divergencia y rotacional. Recordaremos %aqu\'{\i} su expresi\'on en t\'erminos del sistema de coordenadas %empleado. Antes, daremos unas sencillas f\'ormulas de conversi\'on %entre los distintos sistemas de referencia en el caso espacial %tridimensional. Una gran cantidad de ejemplos donde se puede %apreciar la importancia del sistema de coordenadas utilizado en el %proceso de clasificaci\'on y resoluci\'on de una ecuaci\'on %diferencial se pueden encontrar en el tema 2 de estos guiones %as\'{\i} como en el Vol. 2 del libro de Costa Novella sobre %Fen\'omenos de Transporte. La notaci\'on utilizada ser\'a: $(x,y,z)$ para la localizaci\'on de un punto en coordenadas cartesianas, $(r,\theta ,z)$ para la localizaci\'on de un punto en coordenadas cil\'{\i}ndricas y $(\rho ,\theta ,\phi)$ para la localizaci\'on de un punto en coordenadas esf\'ericas. %{\large \begin{center} \begin{tabular}{||l|c||} \hline\hline {\bf Coordenadas} & {\bf F\'ormulas de conversi\'on} \\ \hline\hline %empeza la tabla 5.4 pag 226 deen ********************************************************* & \\ Cil\'{\i}ndricas $\to$ Cartesianas & $x=r\cos\theta, \qquad y=r\sin\theta,\qquad z=z$ \\ & \\ \hline & \\ Cartesianas $\to$ Cil\'{\i}ndricas & $\displaystyle r=\sqrt{x^2 +y^2},\qquad \tan\theta =(y/x), \qquad z=z$ \\ & \\ \hline & \\ Esf\'ericas $\to$ Cartesianas & $x=\rho\sin\phi \cos\theta,\qquad y=\rho\sin\phi \sin\theta,\qquad z=\rho\cos\phi$ \\ & \\ \hline & \\ Cartesianas $\to$ Esf\'ericas & $\rho=\sqrt{x^2 +y^2 +z^2},\qquad \tan\theta =(y/x )$, \\ [0.3cm] & $\phi =\mbox{arccos}\displaystyle \left(\frac{z}{\sqrt{x^2 +y^2 +z^2}} \right)$ \\ & \\ \hline & \\ Esf\'ericas $\to$ Cil\'{\i}ndricas & $r=\rho\sin\phi ,\qquad \theta = \theta ,\qquad z=\rho\cos\phi$ \\ & \\ \hline & \\ Cil\'{\i}ndricas $\to$ Esf\'ericas & $\rho=\sqrt{r^2 +z^2},\qquad \theta =\theta ,\qquad \phi =\mbox{arccos}\dis \left(\frac{z}{\sqrt{r^2 +z^2}} \right)$ \\ & \\ \hline \end{tabular} \end{center}%} \subsubsection{Operador Divergencia} Dependiendo del sistema de coordenadas utilizado se expresa de distinta manera. Si el campo vectorial $\bfm{v}$ viene dado en coordenadas rectangulares entonces $\bfm{v}=(v_x ,v_y ,v_z )$. Si viene dado en coordenadas cil\'{\i}ndricas entonces $\bfm{v}=(v_r ,v_\theta ,v_z )$ y si viene dado en coordenadas esf\'ericas entonces $\bfm{v}=(v_r ,v_\theta ,v_\phi )$. \vspace{0.5cm} %{\large \begin{center} \begin{tabular}{||l|l||} \hline\hline {\bf Coordenadas} & {\bf Operador de Divergencia} \\ \hline\hline %empeza la tabla 5.4 pag 226 deen ********************************************************* & \\ Rectangulares & $\displaystyle \nabla \cdot \bfm{v} =\displaystyle \deri{v_x}{x}+\deri{v_y}{y}+\deri{v_z}{z} $ \\ & \\ \hline & \\ Cil\'{\i}ndricas & $\displaystyle \nabla \cdot \bfm{v} =\displaystyle \frac{1}{r}\deri{}{r}(rv_r )+\displaystyle \frac{1}{r}\deri{v_\theta}{\theta} +\deri{v_z}{z}=\deri{v_r}{r} +\frac{1}{r}v_r +\displaystyle \frac{1}{r}\deri{v_\theta}{\theta} +\deri{v_z}{z} $ \\ & \\ \hline & \\ Esf\'ericas & $\displaystyle \nabla \cdot \bfm{v} =\displaystyle \frac{1}{r^2 }\deri{}{r}(r^2 v_r )+\displaystyle \frac{1}{r\sin \theta} \deri{}{\theta} (v_{\theta}\sin\theta )+\displaystyle \frac{1}{r\sin \theta} \deri{v_\phi}{\phi} $ \\ & \\ \hline \end{tabular} \end{center}%} %\newpage \subsubsection{Operador Derivada Material} Las leyes generales de conservaci\'on en mec\'anica de fluidos se pueden escribir m\'as f\'acilmente en t\'erminos del operador diferencial: \begin{equation}\label{derimat} \dis \frac{D}{Dt}\equiv \deri{}{t}+\bfm{v}\cdot \nabla, \end{equation} que se conoce con el nombre de {\bf derivada material}. La derivada material tiene un significado f\'{\i}sico concreto: es la tasa de cambio de un campo escalar vista por un observador que se mueve con el fluido. Por ejemplo, aparece en la ecuaci\'on de conservaci\'on de la energ\'{\i}a aplicado al campo escalar de temperaturas. Tambi\'en se aplica a un campo vectorial (por ejemplo, el campo de velocidades) actuando componente a componente. \vspace{0.5cm} %{\large \begin{center} \begin{tabular}{||c|c||} \hline\hline {\bf Coordenadas} & {\bf Operador de Derivada Material aplicado a $T$} \\ \hline\hline %empeza la tabla 5.4 pag 226 deen ********************************************************* & \\ Rectangulares $T(x,y,z,t)$ & $\displaystyle \frac{DT}{Dt} =\displaystyle \deri{T}{t}+ v_x \deri{T}{x}+v_y \deri{T}{y}+v_z \deri{T}{z} $ \\ & \\ \hline & \\ Cil\'{\i}ndricas $T(r, \theta,z,t)$ & $\displaystyle \frac{DT}{Dt} =\displaystyle \deri{T}{t}+ v_r \deri{T}{r}+\dis \frac{v_\theta}{r} \deri{T}{\theta}+v_z \deri{T}{z} $ \\ & \\ \hline & \\ Esf\'ericas $T(r,\theta,\phi,t)$ & $\displaystyle \frac{DT}{Dt} =\displaystyle \deri{T}{t}+ v_r \deri{T}{r}+\dis \frac{v_\theta}{r} \deri{T}{\theta}+\dis \frac{v_{\phi}}{r\sin\theta} \deri{T}{\phi} $ \\ & \\ \hline \end{tabular} \end{center}%} %\newpage Consideremos el mismo operador pero aplicado al campo vectorial de velocidades: \begin{equation}\label{aderimat} \dis \frac{D\bfm{v}}{Dt}\equiv \deri{\bfm{v}}{t}+\bfm{v}\cdot \nabla \bfm{v}. \end{equation} Se tiene entonces: \vspace{2.0cm} %{\large \begin{center} \begin{tabular}{||c|c||} \hline\hline {\bf Coord. Rectangulares} & {\bf Operador de Derivada Material aplicado a $\bfm{v}$} \\ \hline\hline %empeza la tabla 5.4 pag 226 deen ********************************************************* & \\ $v_x (x,y,z)$ & $\displaystyle \frac{Dv_x }{Dt} =\displaystyle \deri{v_x}{t}+ v_x \deri{v_x}{x}+v_y \deri{v_x}{y}+v_z \deri{v_x}{z} $ \\ & \\ \hline & \\ $v_y (x,y,z)$ & $\displaystyle \frac{Dv_y }{Dt} =\displaystyle \deri{v_y}{t}+ v_x \deri{v_y}{x}+v_y \deri{v_y}{y}+v_z \deri{v_y}{z} $ \\ & \\ \hline & \\ $v_z (x,y,z)$ & $\displaystyle \frac{Dv_z }{Dt} =\displaystyle \deri{v_z}{t}+ v_x \deri{v_z}{x}+v_y \deri{v_z}{y}+v_z \deri{v_z}{z} $ \\ & \\ \hline \end{tabular} \end{center}%} %\newpage \subsubsection{Operador Laplaciano} El operador laplaciano puede aparecer\footnote{Por ejemplo no aparece al trabajar con fluidos perfectos que satisfacen la ecuaci\'on de Euler.} en las ecuaciones de conservaci\'on de la cantidad de movimiento y de la energ\'{\i}a. En el primer caso (es decir considerando la ecuaci\'on de conservaci\'on de la cantidad de movimiento) es sabido que para un fluido newtoniano con densidad y viscosidad constantes se tiene: $$ \dis \nabla \cdot [\tau ] =\mu\nabla^2 \bfm{v}, $$ siendo $[\tau ]$ el tensor de tensiones (que denotamos como una matriz cuadrada)\footnote{No consideraremos en este curso la definici\'on de tensor. S\'olo observamos que un escalar se puede considerar un tensor de orden cero, un vector se considera un tensor de orden uno y que que un tensor de segundo orden en el espacio tridimensional es un objeto matem\'atico que se puede representar como un conjunto ordenado de nueve n\'umeros. Cada uno de ello se asocia con dos direcciones. Habitualmente se utilizan las matrices para denotar los tensores.} (o fuerzas) viscosas, siendo $\mu$ la viscosidad del fluido. T\'{\i}picamente se denota $\nabla^2 \bfm{v}=\Delta \bfm{v} $. En el segundo caso, al aplicar la ley de conducci\'on del calor de Fourier se tiene: $$ -\nabla\cdot \bfm{q} =-\nabla\cdot (-k\nabla T ) =k\nabla^2 T, $$ siendo $\bfm{q}$ el vector de flujo (de calor) y $k$ la conductibilidad calor\'{\i}fica. Nuevamente se suele denotar $\nabla^2 T=\Delta T$. En general dado un campo escalar $u(x,y,z,t)$ (que puede ser $T$ o una componente del campo de velocidades) se tiene: \vspace{0.5cm} %{\large \begin{center} \begin{tabular}{||c|c||} \hline\hline {\bf Coordenadas} & {\bf Operador Laplaciano} \\ \hline\hline % ********************************************************* & \\ Rectangulares %$u(x,y,z,t)$ & $\displaystyle \Delta u =\displaystyle \dderi{u}{x}+ \dderi{u}{y}+ \dderi{u}{z} $ \\ & \\ \hline & \\ Cil\'{\i}ndricas %$u(r, \theta,z,t)$ & $\displaystyle \Delta u =\displaystyle \frac{1}{r} \deri{}{r}\left( r\dis \deri{u}{r}\right)+ \frac{1}{r^2}\dderi{u}{\theta}+\dderi{u}{z}=\dderi{u}{r} +\frac{1}{r} \deri{u}{r} +\displaystyle \frac{1}{r^2}\dderi{u}{\theta} +\dderi{u}{z} $ \\ & \\ \hline & \\ Esf\'ericas %$T(r,\theta,\phi,t)$ & $\displaystyle \Delta u =\displaystyle \frac{1}{r^2 } \deri{u}{r}\left( r^2 \dis \deri{u}{r}\right)+ \frac{1}{r^2 \sin\phi}\deri{}{\phi}\left( \sin\phi \deri{u}{\phi}\right)+ \frac{1}{r^2 \sin^2 \phi}\left( \dderi{u}{\theta} \right) $ \\ & \\ \hline & \\ Radiales & $\displaystyle \Delta u =\displaystyle \frac{1}{r^{N-1} } \deri{}{r}\left( r^{N-1} \dis \deri{u}{r}\right)= \dis\dderi{u}{r}+\frac{(N-1)}{r}\deri{u}{r},\quad N=1,2,3 $ \\ & \\ \hline \end{tabular} \end{center}%} \vspace{0.5cm} %\newpage \subsection{Tablas de Ecuaciones} Recordaremos aqu\'{\i} las expresiones en distintos sistemas de coordenadas de las ecuaciones b\'asicas que aparecen en los problemas de transporte de la mec\'anica de fluidos. \subsubsection{Ecuaci\'on de continuidad} %En mec\'anica de fluidos se la suele conocer %con el nombre de ecuaci\'on de continuidad. En general se corresponde a la ley de conservaci\'on de la materia total (v\'ease por ejemplo la ecuaci\'on 3.75 del vol. 2 del libro de Costa Novella). En forma de balance local de masa: \begin{equation}\label{eccon1} \dis \deri{\rho}{t}+\dis\nabla\cdot (\rho \bfm{v}) =0, \end{equation} siendo $\rho$ la densidad de masa por unidad de volumen y $\bfm{v}$ el campo de velocidades\footnote{Recu\'erdese que en Mec\'anica de Medios Continuos se entiende por fluido un cuerpo cuyas mol\'eculas tienen poca coherencia entre si, de modo que pueden deslizarse libremente una sobre otras (l\'{\i}quidos), o separase y desplazarse con completa independencia (gases), tomando siempre la forma del recipiente que lo contiene.}. De\-sa\-rro\-llan\-do las operaciones de derivaci\'on que aparecen en (\ref{eccon1}) se tiene: \begin{equation}\label{mari} \dis \deri{\rho}{t}+\bfm{v}\cdot \nabla\rho +\rho \nabla\cdot \bfm{v} =0. \end{equation} Esta ecuaci\'on (o su forma m\'as compacta (\ref{eccon1})) expresa la conservaci\'on de materia en fen\'omenos en que esta se transporta s\'olo convectivamente (por ejemplo en el movimiento de un fluido). Pero no es el caso m\'as general pues no incluye otras formas de transporte. La identificaci\'on de la ecuaci\'on de conservaci\'on de la masa con el nombre de {\bf ecuaci\'on de continuidad} es propio de la mec\'anica de fluidos\footnote{N\'otese que la mec\'anica de fluidos abarca la hidrost\'atica, la hidrodin\'amica (para fluidos incompresibles) y la aerodin\'amica (para fluidos compresibles) subs\'onica o supers\'onica.} y es una consecuencia de aplicar la ley de conservaci\'on de la materia al fluido. Volviendo al ejemplo (\ref{gas}) (que describe el movimiento unidimensional de un gas) ponemos $\bfm{v}=u(x)$, $\mbox{div}\bfm{v}=u_x$, $\dis \nabla\rho =\rho_x$ y vemos que la ecuaci\'on de conservaci\'on de la masa propuesta en (\ref{gas}): $$ \dis \rho \deri{u}{x}+u\deri{\rho}{x}+\deri{\rho}{t}=0, $$ es del tipo (\ref{mari}) siendo $\bfm{v}\cdot \nabla\rho =u\rho_x$ y $\rho (\nabla\cdot \bfm{v})=\rho u_x$. \es Si la densidad del fluido es constante (fluidos incompresibles) la ecuaci\'on de continuidad se simplifica a la condici\'on de divergencia nula: \begin{equation}\label{eccon2} \dis\nabla\cdot \bfm{v} =0, \end{equation} que es la expresi\'on matem\'atica de la conservaci\'on de la masa para materiales incompresibles (representados por campos cuya divergencia es nula). \es Dependiendo del sistema de coordenadas utilizado se expresa de distinta manera. \vspace{0.5cm} %{\large \begin{center} \begin{tabular}{||l|l||} \hline\hline {\bf Sistema de Coord.} & {\bf Ecuaci\'on de continuidad para fluidos incomp.} \\ \hline\hline %empeza la tabla 5.4 pag 226 deen ********************************************************* & \\ Rectangulares & $\displaystyle \nabla \cdot \bfm{v} =\displaystyle \deri{v_x}{x}+\deri{v_y}{y}+\deri{v_z}{z} =0 $ \\ & \\ \hline & \\ Cil\'{\i}ndricas & $\displaystyle \nabla \cdot \bfm{v} =\displaystyle \frac{1}{r}\deri{}{r}(rv_r )+\displaystyle \frac{1}{r}\deri{v_\theta}{\theta} +\deri{v_z}{z} =0 $ \\ & \\ \hline & \\ Esf\'ericas & $\displaystyle \nabla \cdot \bfm{v} =\displaystyle \frac{1}{r^2 }\deri{}{r}(r^2 v_r )+\displaystyle \frac{1}{r\sin \theta} \deri{}{\theta} (v_{\theta}\sin\theta )+\displaystyle \frac{1}{r\sin \theta} \deri{v_\phi}{\phi} =0 $ \\ & \\ \hline \end{tabular} \end{center} \subsubsection{Ecuaci\'on de conservaci\'on de la cantidad de movimiento} Se trata de una ecuaci\'on vectorial. En mec\'anica de fluidos se la suele llamar con el nombre de ecuaci\'on del equilibrio o ecuaci\'on de Navier-Stokes y modeliza los fluidos newtonianos con densidad y viscosidad constantes. \es Obs\'ervese que la nomenclatura utilizada para las ecuaciones de conservaci\'on de la masa (ecuaci\'on de continuidad) y la ecuaci\'on de conservaci\'on de la cantidad de movimiento (ecuaci\'on de Navier-Stokes) surge de su aplicaci\'on a la mec\'anica de fluidos\footnote{La mec\'anica de fluidos es s\'olo una rama de la mec\'anica de medios continuos que es la ciencia que estudia en general los medios deformables constituidos por {\em infinitos} puntos. Otra rama nace por ejemplo al estudiar los cuerpos el\'asticos (membranas, vigas, cuerdas vibrantes).}. \es En realidad hay tres {\em grandes} leyes de conservaci\'on: %f\'{\i}sicas que se corresponden a los %tres {\em grandes} principios termodin\'amicos ley de conservaci\'on de la masa, ley de conservaci\'on de la energ\'{\i}a y ley de conservaci\'on de la cantidad de movimiento. Su aplicaci\'on al caso de los fluidos proporciona la ecuaci\'on de continuidad, las ecuaciones de Navier-Stokes y la ecuaci\'on de la energ\'{\i}a. La aplicaci\'on a otras parcelas, como la mec\'anica de s\'olidos r\'{\i}gidos, la mec\'anica cu\'antica (distancias microsc\'opicas), la mec\'anica relativista (distancias macrosc\'opicas) o el electromagnetismo, se manifiesta por otras ecuaciones que se conocen con otros nombres pero que responden a las mismas leyes de conservaci\'on. La ecuaci\'on (vectorial) de Navier-Stokes es, por ejemplo, una consecuencia de la ecuaci\'on de conservaci\'on de la cantidad de movimiento: \begin{equation}\label{ecmom} \dis \rho\frac{D \bfm{v}}{Dt} =\rho\bfm{g} -\nabla P +\mu\nabla^2 \bfm{v}. \end{equation} Dependiendo del sistema de coordenadas utilizado se expresa de distinta manera. Por ejemplo, las ecuaciones de Navier-Stokes en coordenadas rectangulares son: %\centerline{Ecuaciones de Navier-Stokes } %{\large \begin{center} \begin{tabular}{||l|c||} \hline\hline & {\bf Ecuaciones de Navier-Stokes en Coord. Rectangulares} \\ \hline\hline %empeza la tabla 5.4 pag 226 deen ********************************************************* & \\ $x$ & $\displaystyle \rho \left[ \displaystyle \deri{v_x}{t}+v_x \deri{v_x}{x}+v_y \deri{v_x}{y}+v_z \deri{v_x}{z}\right]= \rho g_x -\dis \deri{P}{x}+\mu \left[\dderi{v_x}{x}+\dderi{v_x}{y} +\dderi{v_x}{z}\right]$ \\ & \\ \hline & \\ $y$ & $\displaystyle \rho \left[ \displaystyle \deri{v_y}{t}+v_x \deri{v_y}{x}+v_y \deri{v_y}{y}+v_z \deri{v_y}{z}\right]= \rho g_y -\dis \deri{P}{y}+\mu \left[\dderi{v_y}{x}+\dderi{v_y}{y} +\dderi{v_y}{z}\right]$ \\ & \\ \hline & \\ $z$ & $\displaystyle \rho \left[ \displaystyle \deri{v_z}{t}+v_x \deri{v_z}{x}+v_y \deri{v_z}{y}+v_z \deri{v_z}{z}\right]= \rho g_z -\dis \deri{P}{z}+\mu \left[\dderi{v_z}{x}+\dderi{v_z}{y} +\dderi{v_z}{z}\right]$ \\ & \\ \hline \end{tabular} \end{center}%} %\newpage Las ecuaciones de Navier-Stokes en Coordenadas Cil\'{\i}ndricas son: %{\large \begin{center} \begin{tabular}{||l|c||} \hline\hline {\bf Componente } & {\bf Ecuaciones de Navier-Stokes} \\ \hline\hline %empeza la tabla 5.4 pag 226 deen ********************************************************* & \\ componente $r$ & $\displaystyle \rho \left[ \displaystyle \deri{v_r}{t}+v_r \deri{v_r}{r}+\dis\frac{v_{\theta}}{r}\deri{v_r}{\theta} -\dis \frac{v_\theta^2}{r}+v_z \deri{v_r}{z}\right]= $ \\ [0.4cm] & $\dis \rho g_r -\deri{P}{r}+\mu \left[ \dis \deri{}{r}\left( \frac{1}{r}\deri{}{r} (rv_r )\right)+\dis \frac{1}{r^2} \dderi{v_r}{\theta}-\frac{2}{r^2}\deri{v_\theta}{\theta}+ \dderi{v_r}{z^2}\right] $ \\ & \\ \hline & \\ componente $\theta$ & $\displaystyle \rho \left[ \displaystyle \deri{v_\theta}{t}+v_r \deri{v_\theta}{r}+\dis\frac{v_{\theta}}{r} \deri{v_\theta}{\theta} +\dis \frac{v_r v_\theta}{r}+v_z \deri{v_\theta}{z}\right]= $ \\ [0.6cm] & $\dis \rho g_\theta -\deri{P}{\theta }+\mu \left[ \dis \deri{}{r}\left( \frac{1}{r}\deri{}{r} (rv_\theta )\right)+\dis \frac{1}{r^2} \dderi{v_\theta}{\theta}+\frac{2}{r^2}\deri{v_\theta}{\theta}+ \dderi{v_\theta}{z^2}\right] $ \\ & \\ \hline & \\ componente $z$ & $\displaystyle \rho \left[ \displaystyle \deri{v_z}{t}+v_r \deri{v_z}{r}+\dis\frac{v_{\theta}}{r}\deri{v_z}{\theta} +v_z \deri{v_z}{z}\right]= $ \\ [0.6cm] & $\dis \rho g_z -\deri{P}{z}+\mu \left[ \dis \deri{}{r}\left( \frac{1}{r}\deri{}{r} \left( r\deri{v}{z}\right)\right)+\dis \frac{1}{r^2} \dderi{v_z}{\theta}+ \dderi{v_z}{z^2}\right] $ \\ & \\ \hline \end{tabular} \end{center} %\newpage \subsubsection{Ecuaci\'on de conservaci\'on de la energ\'{\i}a} En muchos problemas que requieren una ecuaci\'on de la energ\'{\i}a los efectos t\'ermicos son mucho m\'as importantes que los efectos mec\'anicos. Esto ocurre por ejemplo cuando existen en el sistemas grandes variaciones de temperatura o cuando se produce calor por reacci\'on. Si suponemos que la densidad $\rho$ y el calor espec\'{\i}fico $c_p$ %(a presi\'on constante) son constantes entonces la ecuaci\'on de la energ\'{\i}a toma la forma: \begin{equation}\label{energy} \rho c_p \dis \frac{DT}{Dt}=-\nabla\cdot \bfm{q} +H_V, \end{equation} donde el t\'ermino de fuente $H_V$ representa la tasa de producci\'on de energ\'{\i}a debida a fuentes de energ\'{\i}a externas por unidad de volumen. El ejemplo m\'as com\'un es el calor que se produce por la resistencia al flujo de una corriente el\'ectrica. El flujo de calor en un s\'olido o en un fluido puro se calcula utilizando la ley de Fourier: $$ \bfm{q} =-k\dis \nabla T. $$ Si la conductividad calor\'{\i}fica $k$ es constante entonces la forma usual de la ecuaci\'on de la energ\'{\i}a interna es: \begin{equation}\label{energy2} \rho c_p \dis \frac{DT}{Dt}=k\nabla^2 T +H_V. \end{equation} En esta ecuaci\'on no est\'a representado el fen\'omeno de la disipaci\'on viscosa que es la conversi\'on de la energ\'{\i}a cin\'etica en calor debida a la fricci\'on interna al fluido. Normalmente es despreciable exceptuando algunos flujos a alta velocidad (con gradientes de velocidades elevados) o el flujo de fluidos extremadamente viscosos (el hielo o el magma de los volcanes por ejemplo) Dependiendo del sistema de coordenadas considerado se tienen las siguientes expresiones de la ecuaci\'on (\ref{energy2}), siendo $T(x,y,z,t)$ en coordenadas rectangulares, $T(r, \theta,z,t)$ en coordenadas cil\'{\i}ndricas y $T(r,\theta,\phi,t)$ en coordenadas esf\'ericas: %{\large \begin{center} \begin{tabular}{||c||} \hline\hline {\bf Conservaci\'on de la Energ\'{\i}a} \\ \hline\hline %empeza la tabla 5.4 pag 226 deen ********************************************************* \\ Coordenadas Rectangulares $(x,y,z)$\\ \\ $\displaystyle \deri{T}{t}+ v_x \deri{T}{x}+v_y \deri{T}{y}+v_z \deri{T}{z} = \displaystyle \alpha \left[\dderi{T}{x}+ \dderi{T}{y}+ \dderi{T}{z}\right] +\dis \frac{H_V}{\rho c_p}$ \\ \\ \hline \\ Coordenadas Cil\'{\i}ndricas $(r,\theta ,z )$\\ \\ $\displaystyle \deri{T}{t}+ v_r \deri{T}{r}+\dis \frac{v_\theta}{r} \deri{T}{\theta}+v_z \deri{T}{z}= \alpha \left[ \frac{1}{r} \deri{}{r}\left( r\dis \deri{T}{r}\right)+ \frac{1}{r^2}\dderi{T}{\theta}+\dderi{T}{z}\right]+\dis \frac{H_V}{\rho c_p} $ \\ \\ \hline \\ Coordenadas Esf\'ericas $(r,\theta ,\phi )$\\ \\ $\displaystyle \deri{T}{t}+ v_r \deri{T}{r}+\dis \frac{v_\theta}{r} \deri{T}{\theta}+\dis \frac{v_{\phi}}{r\sin\theta} \deri{T}{\phi} = $\\ [0.8cm] $=\alpha\left[\displaystyle \frac{1}{r^2 } \deri{T}{r}\left( r^2 \dis \deri{T}{r}\right)+ \frac{1}{r^2 \sin\theta}\deri{}{\theta}\left( \sin\theta \deri{T}{\theta}\right)+ \frac{1}{r^2 \sin^2 \theta}\left( \dderi{T}{\theta} \right)\right] +\dis \frac{H_V}{\rho c_p} $ \\ \\ \hline \end{tabular} \end{center}%} \newpage %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{Bibliograf\'{\i}a} \begin{itemize} \item Apostol, T.M., (1982), An\'alisis matem\'atico. II ed. Editorial Revert\'e. \item Apostol, T.M., (1996), Calculus. II ed. Editorial Revert\'e. \item Costa Novella, E. (1986). Ingenier\'{\i}a Qu\'{\i}mica. Vol. 2, Fen\'omenos de Transporte. Vol. 3, Flujo de Fluidos. Vol. 4, Transmisi\'on de Calor. Vol. 5, Transferencia de Materia. Alhambra Universidad. \item Courant, R y Hilbert, D. (1989). Partial Differential Equations. Vol 2. John Wiley \& Sons, Inc. \item Deen, W.M., (1998). Analysis of Transport Phenomena. Oxford University Press. \item Elsgoltz, L. (1983). Ecuaciones diferenciales y c\'alculo variacional. III Ed. Editorial Mir. \item Kreyszig, E. (1993). Advanced Engineering Mathematics. VII Ed. John Wiley \& Sons, Inc. \item Marsden, J. E. y Tromba, A. J. (1991). C\'alculo vectorial. (III edici\'on). Ed. Addison-Wesley Iberoamericana \item Mei, C.C. (1997). Mathematical analysis in Engineering. Cambridge University Press. \item Rice, R.G, Do, D.D., (1995). Applied Mathematics and Modelling for Chemical Engineers. John Wiley \& Sons, Inc. \item Smith, G.D. (1999). Numerical Solutions of Partial Differential Equations. Finite Difference Methods. III Ed. Oxford University Press. \item Strikwerda J. C., (1989). Finite Difference Schemes and Partial Differential Equations. Chapman \& Hall. International Thomson Publishing. \item Weinberger, H., (1965). A first course in partial differential equations. Blaisdell. \item Zill, D.G., (1977). Ecuaciones Diferenciales con aplicaciones de modelado. International Thomson Ed. 6 ed. \end{itemize} \subsection{Bibliograf\'{\i}a avanzada} \begin{itemize} \item Adams, R., (1975), Sobolev spaces. Academic Press. \item Brezis, H., (1983) Analyse Fonctionelle. Masson. Paris. \item D\'{\i}az, J.I., (1985). Nonlinear Partial Differential Equations and Free Boundaries. Ed. Pitman. Londres. \item Fowler, A.C, (1997). Mathematical Models in the Applied Sciences. Cambridge texts in Applied Mathematics. Cambridge University Press. \item Froment, G.F y Bischoff, K.B., (1990). Chemical Reactor Analysis and Design. II Ed. John Wiley \& Sons, Inc. \item Godlewski, E., Raviart, P.A., (1991). Hyperbolic Systems of Conservation Laws. Ed. Ellipses. \item John, F., (1982). Partial differential equations. IV Ed. Applied Mathematical Sciences. Springer Verlag. \end{itemize} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\include{tema1_1} \chapter{M\'etodos num\'ericos para la resoluci\'on de ecuaciones no li\-nea\-les} \section{Motivaci\'{o}n y generalidades} \bejem (Hanna et al.[9]): La ecuaci\'{o}n de Peng-Robinson es una e\-cua\-ci\'{o}n de estado que proporciona la presi\'{o}n P de un gas mediante: \[ P=\frac{R T}{V-b}-\frac{a}{V (V+b)+b (V-b)} \] donde $a$ y $b$ son constantes, $T$ es la temperatura absoluta a la que se encuentra el gas, $V$ es el volumen espec\'{i}fico y $R$ es la constante de los gases perfectos (8.31441J/(mol ${{}^{o}}$K)). Para el CO$_{2}$ las constantes a y b toman los valores a = 364.61 m$^{6}$.kPa / (kg.mol)$^{2}$ $% \;$y\ b = 0.02664 m$^{3}$/kg.mol. Supongamos que se desea encontrar la densidad (es decir 1/V) del CO$_{2}$ a una presi\'{o}n de 1$\cdot $10$^{4}$ kPa y a una temperatura de 340${{}^{o}}$K usando la ecuaci\'{o}n de Peng-Robinson. Ello implicar\'{\i}a tener que encontrar el valor de V para el que: $10^{4}=\frac{8.31441 340}{V-0.02664}-\frac{364.61}{V (V+0.02664)+0.02664(V-0.02664)},$ lo cual no es en modo alguno evidente. La soluci\'{o}n ..... m\'{a}s adelante. \enejem \bejem (Hanna et al. [9]): Una mezcla de un mol de CO y $3$ moles de H$_{2}$ se deja reaccionar a 500${{}^{o}}$C y 1 atm\'{o}sfera de presi\'{o}n hasta alcanzar su equilibrio qu\'{\i}mico y se desea estimar la composici\'{o}n de la mezcla de equilibrio. Las reacciones significativas (y las constantes de equilibrio) para este sistema son: \[ \begin{array}{rcll} 3H_{2} + CO & \rightleftharpoons & CH_{4} + H_{2}O & (K = 69.18) \\[0.2cm] \noalign{\smallskip} CO + H_{2}O & \rightleftharpoons & CO_{2} + H_{2} & (K = 4.68) \\[0.2cm] \noalign{\smallskip} CO_{2} + C & \rightleftharpoons & 2CO & (K = 0.0056) \\% [0.2cm] \noalign{\smallskip} 5H_{2} + 2CO & \rightleftharpoons & C_{2}H_{6} + 2H_{2}O & (K = 0.141) \end{array} \] Puesto que todos los componentes de las reacciones anteriores, salvo el C, aparecen en fase gaseosa, las relaciones de equilibrio, asumiendo que los gases se comportan como gases perfectos, se pueden expresar mediante: \begin{equation} \frac{y_{CH_{4}}y_{H_{2}O}}{y_{H_{2}}^{3}y_{CO}}=69.18 \tag{a} \label{eq1} \end{equation} \begin{equation} \frac{y_{CO_{2}}y_{H_{2}}}{y_{CO}y_{H_{2}O}}=4.68 \tag{b} \label{eq2} \end{equation} \begin{equation} \frac{y_{CO}^{2}}{y_{CO_{2}}}=0.0056 \tag{c} \label{eq3} \end{equation} \begin{equation} \frac{y_{C_{2}H_{6}}y_{H_{2}O}^{2}}{y_{H_{2}}^{5}y_{CO}^{2}}=0.141 \tag{d} \label{eq4} \end{equation} donde y$_{\alpha }$ es la fracci\'{o}n molar de la especie ``$\alpha $''. Usando las ``coordenadas de reacci\'{o}n'' x$_{i}$ (i = 1, 2, 3, 4) de cada una de las cuatro reacciones anteriores y denotando por especie 1 al H$_{2},$ por especie 2 al CO, por especie 3 al CH$_{4}$, por especie 4 al H$_{2}$O, por especie 5 al CO$_{2}$ y por especie 6 al C$_{2}$H$_{6}$, las fracciones molares de cada especie y$_{i}$ (i = 1, 2, 3, 4, 5, 6) satisfacen el sistema de ecuaciones siguiente: \begin{eqnarray*} y_{1} &=&(3-3x_{1}+x_{2}-5x_{4})/D \\ y_{2} &=&(1-x_{1}-x_{2}+2x_{3}-2x_{4})/D \\ y_{3} &=&x_{1}/D \\ y_{4} &=&(x_{1}-x_{2}+2x_{4})/D \\ y_{5} &=&(x_{2}-x_{3})/D \\ y_{6} &=&x_{4}/D \end{eqnarray*} donde $D$ = $(4-2x_{1}+x_{3}-4x_{4})$ representa el n\'{u}mero total de moles presentes en el equilibrio. Entrando con estas expresiones en las ecuaciones (a), (b), (c) y (d) se obtiene finalmente el sistema de cuatro ecuaciones no lineales: \begin{eqnarray*} \frac{x_{1}(x_{1}-x_{2}+2x_{4})D^{2}}{% (3-3x_{1}+x_{2}-5x_{4})^{3}(1-x_{1}-x_{2}+2x_{3}-2x_{4})} &=&69.18 \\ \frac{(x_{2}-x_{3})(3-3x_{1}+x_{2}-5x_{4})}{% (1-x_{1}-x_{2}+2x_{3}-2x_{4})(x_{1}-x_{2}+2x_{4})} &=&4.68 \\ \frac{(1-x_{1}-x_{2}+2x_{3}-2x_{4})^{2}}{(x_{2}-x_{3})D} &=&0.0056 \\ \frac{x_{4}(x_{1}-x_{2}+2x_{4})^{2}D^{4}}{% (3-3x_{1}+x_{2}-5x_{4})^{5}(1-x_{1}-x_{2}+2x_{3}-2x_{4})^{2}} &=&0.141 \end{eqnarray*} La resoluci\'{o}n del sistema de ecuaciones no lineales anterior nos conduce a los valores de las coordenadas de reacci\'{o}n y, a partir de ellas, a la determinaci\'{o}n de las fracciones molares de cada especie. Una soluci\'{o}n de este sistema, con sentido qu\'{\i}mico, es \[ x_{1}=0.681604, \quad x_{2} = 1.58962\cdot 10^{-2},\quad x_{3} = -0.128703 ,\quad x_{4} =1.40960.10^{-5} \] o \[ y_{1}=0.387162,\quad y_{2} = 0.00179676, \quad y_{3} = 0.271769,\quad \] \[ y_{4}= 0.265442, \quad y_{5} = 0.0576549, \qquad y_{6} = 5.62034\cdot 10^{-6}. \] La cuesti\'{o}n es \textquestiondown c\'{o}mo se han calculado estas soluciones? \enejem \vspace{0.4cm} Los dos ejemplos anteriores pretenden ilustrar el hecho de que en numerosas aplicaciones f\'{\i}sicas y t\'{e}cnicas, y en concreto en muchos problemas propios de ingenier\'{\i}a, aparece la necesidad de tener que resolver ecuaciones o sistemas de ecuaciones no lineales. Este tipo de sistemas tiene peculiaridades que los diferencian notablemente de los sistemas lineales. As\'{\i} por ejemplo, los sistemas lineales de n ecuaciones con n inc\'{o}gnitas en los que la matriz del sistema es regular s\'{o}lo admiten una soluci\'{o}n. A diferencia de este caso, los sistemas no lineales, aunque tengan el mismo n\'{u}mero de inc\'{o}gnitas que de ecuaciones, desde un punto de vista matem\'{a}tico, pueden admitir una, ninguna o varias soluciones. El elegir entre ellas las que sirven a la aplicaci\'{o}n concreta que motiv\'{o} el sistema de ecuaciones debe hacerse en funci\'{o}n de los criterios f\'{\i}sicos, qu\'{\i}micos y t\'{e}cnicos que regulen el problema en cuesti\'{o}n (por ejemplo, aunque matem\'{a}ticamente puedan tener sentido, qu\'{\i}micamente ser\'{\i}an inadmisibles fracciones molares 1 de una especie qu\'{\i}mica negativas o superiores a 1). Una segunda diferencia es la debida al hecho de que un sistema lineal que admita soluci\'{o}n \'{u}nica puede ser resuelto de forma exacta mediante un n\'{u}mero finito de operaciones (recu\'{e}rdense los m\'{e}todos directos de resoluci\'{o}n de sistemas lineales de ecuaciones: Gauss, LU, Choleski, Crout, QR, etc...). En el caso de los sistemas no lineales, en general, la soluci\'{o}n no podr\'{a} ser encontrada mediante un n\'{u}mero finito de operaciones. En este sentido, los m\'{e}todos de resoluci\'{o}n de sistemas de ecuaciones no lineales ser\'{a}n m\'{e}todos de tipo iterativo mediante los cuales se construir\'{a} una sucesi\'{o}n de vectores que, en los casos en que el m\'{e}todo funcione, se ir\'{a}n aproximando hacia uno de los vectores soluci\'{o}n del sistema no lineal. \es \beobse Interpr\'{e}tese correctamente lo que se acaba de leer. No quiere ello decir que ninguna ecuaci\'{o}n no lineal pueda resolverse de forma directa. Ah\'{\i} est\'{a}n las ecuaciones de segundo grado que, siendo no lineales, pueden resolverse de forma exacta mediante un n\'{u}mero finito de operaciones. O si se buscan las soluciones de la ecuaci\'{o}n: $(x-1)^{10}=0$ tambi\'{e}n es obvio que estas son $x = 1$ (con multiplicidad $10$). Lo que se est\'{a} diciendo es que no hay, por ejemplo, ning\'{u}n m\'{e}todo directo que nos permita calcular las ra\'{\i}ces de cualquier polinomio de grado $10$. \enobse \es El hecho de que los m\'{e}todos de resoluci\'{o}n de ecuaciones y sistemas no lineales sean de tipo iterativo nos plantea muchas cuestiones.\ Entre ellas cabe citar las siguientes: \begin{itemize} \item[a)] \textquestiondown C\'{o}mo se genera la sucesi\'{o}n de vectores que puedan aproximarse a la soluci\'{o}n? \item[b)] Dado que es imposible evaluar los infinitos vectores de la sucesi\'{o}n anterior, \textquestiondown c\'{o}mo se sabe que ya se est\'{a} ``suficientemente'' cerca de una soluci\'{o}n?. \item[c)] Si la soluci\'{o}n encontrada mediante un m\'{e}todo no es la que pueda interesarnos \textquestiondown c\'{o}mo buscar otras posibles soluciones?. \item[d)] En el caso de tener diferentes m\'{e}todos que nos proporcionen las soluciones de un sistema \textquestiondown c\'{o}mo elegir el mejor entre ellos?. \end{itemize} \es A estas y otras cuestiones intentaremos dar respuesta en el presente tema. La des\-crip\-ci\'{o}n general de los principales m\'{e}todos de resoluci\'{o}n puede hacerse de una forma muy intuitiva sin necesidad de recurrir a artificios matem\'{a}ticos complicados. No obstante la justificaci\'{o}n rigurosa de las t\'{e}cnicas de resoluci\'{o}n y el an\'{a}lisis de las condiciones que pueden garantizar su convergencia as\'{\i} como el estudio de la velocidad con que convergen exigir\'{a} acudir a conceptos matem\'{a}ticos previos. Conviene por \'{u}ltimo que el lector tome conciencia desde el primer momento de un hecho relativo a los m\'{e}todos de resoluci\'{o}n de sistemas de ecuaciones no lineales: \textbf{no existe un m\'{e}todo universal de resoluci\'{o}n de sistemas de ecuaciones no lineales}. Algunos de ellos funcionar\'{a}n sobre ciertos sistemas y no servir\'{a}n para resolver otros. Los m\'{e}todos que presenten un buen comportamiento sobre algunos sistemas pueden no ser los mejores para resolver otros sistemas diferentes. M\'{a}s bien cabr\'{\i}a decir que \textbf{cada sistema no lineal requerir\'{a} su m\'{e}todo de resoluci\'{o}n id\'{o}neo}. \section{Conceptos previos} Puesto que, como se acaba de se\~{n}alar, los m\'{e}todos que abordaremos ser\'{a}n de tipo iterativo y en ellos se generar\'{a} una sucesi\'{o}n de vectores que, en el mejor de los casos, se vayan aproximando hacia un vector soluci\'{o}n, conviene comenzar recordando algunos conceptos sobre sucesiones. En este sentido, en primer lugar, nos ubicaremos en conjuntos sobre los que se haya definido una forma de medir la distancia entre sus elementos (esto es, en un espacio m\'{e}trico (E, d)). En este espacio m\'{e}trico comenzamos recordando la siguiente definici\'{o}n: \begin{dfn} Dada una sucesi\'{o}n infinita de elementos $\left\{ x_{i}\right\} _{i=1}^{\infty }$del espacio m\'{e}trico $(E,d)$ se dice que la sucesi\'{o}n es \textbf{convergente} hacia el elemento x*$\in $E, si para cualquier valor $\varepsilon > 0$ siempre se puede encontrar un n\'{u}mero natural N tal que para todo \'{\i}ndice $n> N$ se verifica que $ d(x_{n},x^{*})<\varepsilon .$ Al elemento x* anterior, si existe, se le denomina \textbf{l\'{\i}mite} de la sucesi\'{o}n $\left\{ x_{i}\right\} _{i=1}^{\infty }$. \end{dfn} Una sucesi\'{o}n de un espacio m\'{e}trico podr\'{a} tener l\'{\i}mite o no tenerlo pero en el caso de que exista este l\'{\i}mite siempre ser\'{a} el \'{u}nico l\'{\i}mite de la sucesi\'{o}n. Se llama la atenci\'{o}n del lector sobre el hecho de que el l\'{i}mite de una sucesi\'{o}n, si existe, tiene que ser un elemento del propio espacio m\'{e}trico al que pertenecen los elementos de la sucesi\'{o}n. As\'{\i} por ejemplo, si nos ubicamos en el espacio de los n\'{u}meros racionales (Q) con la distancia fundamental ($d_{f}(x,y) = | x-y |$) la sucesi\'{o}n $% \left\{ x_{n}={\sum }^{n}_{i=1}(1/i!)\right\} _{n=1}^{\infty }$ tiene elementos tan cercanos al n\'{u}mero $e$ como se desee. En efecto, recu\'{e}rdese que el n\'{u}mero $e$, entre otras definiciones, se pod\'{\i}a obtener mediante $e= {\sum}_{i=1}^{\infty } (1/i!)$ por lo que dado un valor de $% \varepsilon $ bastar\'{a} escoger $N$ suficientemente elevado para que todos los elementos $x_{n}$ de la sucesi\'{o}n anterior con $n > N$ disten de $e$ una cantidad inferior a $\varepsilon $. Parecer\'{\i}a pues que el n\'{u}mero $e$ es el l\'{\i}mite de la sucesi\'{o}n anterior. Sin embargo $e$ no es un n\'{u}mero racional por lo que la sucesi\'{o}n anterior no tendr\'{a} l\'{\i}mite en el espacio ($Q,\, d_{f}$) considerado. S\'{\i} lo tendr\'{\i}a sin embargo, en el espacio $(\R ,\, d_{f}$). Las sucesiones que ``parece'' que convergen (a falta de saber si hacia lo que convergen es un elemento del espacio en el que se est\'{a} trabajando) tienen un nombre concreto: sucesiones de Cauchy. M\'{a}s rigurosamente se puede dar la siguiente definici\'{o}n de este tipo de sucesiones: \begin{dfn} Dada una sucesi\'{o}n infinita de elementos $\left\{ x_{i}\right\} _{i=1}^{\infty }$del espacio m\'{e}trico $(E,d)$ se dice que la sucesi\'{o}n es una \textbf{sucesi\'{o}n de Cauchy}, si para cualquier valor $\varepsilon > 0$ siempre se puede encontrar un n\'{u}mero natural $N$ tal que para todo par de \'{\i}ndices $n > N$ y $m > N$ se verifica que $d(x_{n},x_{m})<\varepsilon .$ \end{dfn} \bejem Trabajando con la distancia fundamental $d_{f}$ (en el espacio m\'etrico $Q$) la su\-ce\-si\'{o}n $\dis % \left\{ x_{n}={\sum }_{i=1}^n\frac{1}{i!}\right\} _{n=1}^{\infty } $ es una sucesi\'{o}n de Cauchy. En efecto se tiene que, dados tres n\'{u}meros naturales $N$, $n$ y $m$ tales que $N< n< m$ : \[ d(x_{n},x_{m})=\dis \left|{\sum }_{i=1}^n\frac{1}{i!}-% {\sum }_{i=1}^m\frac{1}{i!}\right| =\dis {\sum }_{n+1}^{m}\frac{1}{i!}\leq {\sum %%@ }_{N+1}^{\infty}\frac{1}{i!}= \dis e-{\sum }_{i=1}^n% \frac{1}{i!} \] por lo que para cualquier valor de $\varepsilon $ (positivo) bastar\'{a} escoger $N$ suficientemente elevado para que $d_{f}(x_{n},x_{m})<\varepsilon $ para todo par de n\'{u}meros $n$ y $m$ mayores que $N$. \enejem \bejem En $(\R,d_{f})$ la sucesi\'{o}n $\left\{ x_{n}=\frac{1}{n+1}\right\} _{n=1}^{\infty }$ es una sucesi\'{o}n de Cauchy pues, siendo $N < n $ y $N < m$ se verificar\'{a}: \[ d_{f}(x_{n},x_{m})=\dis \left| \frac{1}{n+1}-\frac{1}{m+1}\right| \leq \left| \frac{1}{n+1}\right| +\left| \frac{1}{m+1}\right| \leq \] \[\left| \frac{1}{N+1}\right| +\left| \frac{1% }{N+1}\right| =\frac{2}{N+1} \] por lo que dado cualquier valor de $\varepsilon $ bastar\'{a} con tomar $% N>\left( \frac{2}{\varepsilon }-1\right) $ para que $d_{f}(x_{n},x_{m})$ sea inferior a $\varepsilon $. \enejem Seg\'{u}n la definici\'{o}n que se ha dado anteriormente las sucesiones de Cauchy son tales que las distancias entre todos sus elementos pueden hacerse inferiores a cualquier valor $\varepsilon $, a partir de un cierto \'{\i}ndice N (que depender\'{a} del valor $\varepsilon $ elegido), es decir, que cuanto mayor sea el \'{\i}ndice n, menos distar\'{a} $x_{n}$ de $% "x_{\infty }".$ En otros t\'{e}rminos, parece que estas sucesiones convergen hacia ``algo''. Lo \'{u}nico que faltar\'{\i}a para que ese ``algo'' fuese el l\'{\i}mite de la sucesi\'{o}n es que perteneciese al espacio m\'{e}trico en el que se considere la sucesi\'{o}n. En este sentido, para evitar el problema de que el supuesto l\'{\i}mite tuviera la descortes\'{\i}a de no pertenecer al espacio, cuando sea posible se trabajar\'{a} con espacios que tengan la sana costumbre de incluir entre sus elementos a todos los posibles l\'{\i}mites de sus sucesiones. Estos espacios tambi\'{e}n tienen un nombre concreto: espacios m\'{e}tricos completos. M\'{a}s rigurosamente: \begin{dfn} Se dice que el espacio m\'{e}trico $(E, d)$ es un \textbf{espacio m\'{e}trico completo} si toda sucesi\'{o}n de Cauchy de elementos de $E$ es una sucesi\'{o}n convergente en $(E, d)$. \end{dfn} \bejem En $\R^{n}$ se pueden considerar las distancias \[ d_{1}(\mathbf{x},\mathbf{y})= {\sum }_{i=1}^n\left| x_{i}-y_{i}\right| ,\qquad d_{2}(\mathbf{x},\mathbf{y})=\sqrt{{\sum }_{i=1}^n\left| %%@ x_{i}-y_{i}\right| ^{2}}, \] \[ d_{\infty }(% \mathbf{x},\mathbf{y})=\max_{1\le i\le n}\left\{ \left| x_{i}-y_{i}\right| \right\} \] Los espacios m\'{e}tricos $(\R^{n},d_{1}),$ $(\R^{n},d_{2}) $ y $(\R^{n},d_{\infty })$ son espacios m\'{e}tricos completos. Y siendo C un conjunto cerrado de $\R^{n}$ los espacios m\'{e}tricos $(C,d_{1}),$ $% (C,d_{2})$ y $(C,d_{\infty })$ son tambi\'{e}n espacios m\'{e}tricos completos. \enejem \bejem En el conjunto de los n\'{u}meros reales $\R$ se define la distancia fundamental mediante $d_{f}(x,y)$ = $\left| x-y\right| .$ El espacio m\'{e}trico $(\R,\, d_{f})$ es un espacio m\'{e}trico completo. Y siendo $% [a, b]$ un intervalo cerrado el espacio $([a,b],d_{f})$ tambi\'{e}n es un espacio m\'{e}trico completo. \enejem Lo hasta aqu\'{\i} dicho es aplicable a espacios m\'{e}tricos en general. No obstante ser\'{a} habitual trabajar en espacios que tengan la estructura de espacios vectoriales (por ejemplo para buscar en ellos el vector soluci\'{o}n de un sistema no lineal). En ellos la forma de medir distancias se asocia al concepto de norma de un vector (que, a su vez, generaliza el concepto de m\'{o}dulo de un vector). De forma m\'{a}s concreta puede darse la siguiente definici\'{o}n: \begin{dfn} Siendo $E$ un espacio vectorial definido sobre un cuerpo $K$ (habi\-tual\-men\-te $K = \R$ o $K = C$) se denomina \textbf{norma} sobre $E$, y se representa por $\| \cdot \|$, a toda aplicaci\'{o}n definida en $E$, que toma valores reales no negativos y verifica las condiciones siguientes: $$ i)\qquad ||\mathbf{x}||=0\Leftrightarrow \mathbf{x}=\mathbf{0} $$ $$ ii)\qquad ||\lambda \mathbf{x}||=|\lambda |||\mathbf{x}||, \qquad \forall \lambda \in K,\quad \forall \mathbf{x}\in E $$ $$ iii)\qquad ||\mathbf{x}+\mathbf{y}||\leq ||\mathbf{x}||+||\mathbf{y}% ||\qquad \forall\, \mathbf{x},\mathbf{y}\in E $$ A todo espacio vectorial $E$ sobre el que se defina una norma $\| \cdot \|$ se le denomina {\bf espacio vectorial normado} y se representar\'{a} por $(E, \,\|\cdot \|)$. \end{dfn} \beobse En la definici\'{o}n anterior $|\lambda |$ representa el valor absoluto de $% \lambda $ si se trabaja en el cuerpo $K = \R$ de los n\'{u}meros reales y el m\'{o}dulo de $\lambda $ si se trabajase sobre el cuerpo $K = C$ de los n\'{u}meros complejos. \enobse \bejem En $\R^{n}$ son normas vectoriales las siguientes aplicaciones: \enejem \[ ||\mathbf{x}||_{1}={\sum }_{i=1}^n\left| x_{i}\right|,\qquad ||\mathbf{x}||_{2}=\sqrt{{\sum }_{i=1}^n\left| x_{i}\right| ^{2}}, \] \[ ||\mathbf{x}||_{\infty }={\max}_{1\le i\le n}\left\{ \left| x_{i}\right| \right\} \] \begin{dfn} Siendo $\| \cdot \|$ y $\| \cdot \|'$ dos normas definidas sobre un mismo espacio vectorial $E$, se dice que ambas normas son \textbf{equivalentes} si existen dos constantes $k_{1}$ y $k_{2}$ tales que se verifica: $$ k_{1} ||\mathbf{x}||\leq ||\mathbf{x} ||^{\prime }\leq k_{2} ||\mathbf{x}||,\qquad \forall \,\mathbf{x}\in E. $$ \end{dfn} \bejem Si n es finito las normas sobre\ $\R^{n}$ introducidas en el ejemplo anterior son equivalentes. Es m\'{a}s, si la dimensi\'{o}n del espacio vectorial E es finita, todas las normas vectoriales sobre \'{e}l definidas son equivalentes. Aun podr\'{\i}a decirse m\'{a}s: si la dimensi\'{o}n del espacio vectorial normado es finita el espacio es completo. \enejem En un espacio vectorial normado $(E, \| \cdot \| )$ podr\'{\i}an definirse muy diferentes distancias. Entre todas ellas es habitual trabajar con la distancia que induce la norma vectorial. De forma m\'{a}s precisa, se puede definir como sigue: \beprop Siendo $(E,\| \cdot \|)$ un espacio vectorial normado se verifica que la aplicaci\'{o}n $d( \mathbf{x},\mathbf{y})=||\mathbf{x}-\mathbf{y}||$ es una distancia denominada \textbf{distancia asociada a la norma} $\| \cdot \|$. \enprop \underline{Demostraci\'{o}n:} Se verifica que: \[ d(\mathbf{x},\mathbf{x})=\|\mathbf{x}-\mathbf{x}\|=0 \] \[ \forall \mathbf{x,y}\in E\;/\;\mathbf{x}\neq \mathbf{y}:\;\;d(\mathbf{x},% \mathbf{y})=\| \mathbf{x}-\mathbf{y}\|>0 \] \[ \forall \mathbf{x,y}\in E:\;d(\mathbf{x},\mathbf{y})=\|\mathbf{x}-\mathbf{y}% \|=\|\mathbf{y}-\mathbf{x}\|=d(\mathbf{y},\mathbf{x}) \] \[ \forall \mathbf{x,y,z}\in E:\;d(\mathbf{x},\mathbf{y})=\|\mathbf{x}-\mathbf{y% }\|\leq \|\mathbf{x}-\mathbf{z}\|+\|\mathbf{z}-\mathbf{y}\|=d(\mathbf{x,z}% )+d(\mathbf{z},\mathbf{y}) \] por lo que la aplicaci\'{o}n definida es una distancia. \hspace{10cm}c.q.d. \bejem A las normas antes definidas se les asocian res\-pec\-tivamente las distancias d$_{1},$ d$_{2}$ y d$_{\infty }$ consideradas en ejemplos precedentes. \enejem Una conclusi\'{o}n de lo anterior es que los espacios vectoriales normados: $(% \R^{n},\|\cdot\|_{1}),$ $(\R^{n},\|\cdot\|_{2})$ y $(\R^{n},\|\cdot\|_{\infty })$ son espacios m\'{e}tricos completos. \beobse El que dos normas sean equivalentes no quiere decir que al aplicarlas a un mismo vector tomen el mismo valor pero s\'{\i} que nos indica que si una de ellas toma un valor ``elevado'' al aplicarla a un cierto vector de E, la otra tambi\'{e}n tomar\'{a} un valor ``elevado'' al aplicarla al mismo vector. Y si el valor es ``peque\~{n}o'' para una de ellas tambi\'{e}n lo ser\'{a} para la otra. En ese sentido las distancias que a ellas est\'{a}n asociadas tambi\'{e}n ser\'{a}n equivalentes. Y por ello si una sucesi\'{o}n es convergente con la distancia asociada a una de las normas tambi\'{e}n lo ser\'{a} con la otra. Como en el caso de trabajar en $\R^{n}$ todas las normas son equivalentes a efectos de analizar la convergencia de una sucesi\'{o}n de vectores ser\'{a} equivalente hacerlo con una u otra norma que se considere en $\R^{n}.$ \enobse En algunas ocasiones trabajaremos con el espacio formado por las matrices cuadradas de orden $n$. Estos conjuntos tienen estructura de espacio vectorial y por tanto sobre ellos ser\'{i}a posible definir tambi\'{e}n normas y distancias como se acaba de describir. No obstante sobre el espacio de las matrices cuadradas de orden n a las normas que en \'{e}l se utilizan se las exige algo m\'{a}s. De forma concreta para estos espacios se tiene la siguiente definici\'{o}n: \begin{dfn} Siendo $M_{n}$ el espacio de las matrices cuadradas de orden $n$ definidas sobre un cuerpo $K$ (con $K = \R$ o $K = C$) se denomina \textbf{norma matricial} definida sobre $M_{n}$ a toda aplicaci\'{o}n definida en $M_{n}$ que toma valores reales no negativos y que verifica las propiedades siguientes: \end{dfn} \[ i)\qquad \|\mathbf{A}\|=0\Leftrightarrow \mathbf{A}=\mathbf{0} \] \[ ii)\qquad \|\lambda \mathbf{A}\|=|\lambda |\|\mathbf{A}\|,\qquad \forall \lambda \in K,\quad \forall \mathbf{A}\in M_{n} \] \[ iii)\qquad \|\mathbf{A}+\mathbf{B}\|\leq \|\mathbf{A}\|+\|\mathbf{B} \|\qquad \forall \mathbf{A},\mathbf{B}\in M_{n} \] \[ iv)\qquad \|\mathbf{A B}\|\leq \|\mathbf{A}\| \|\mathbf{B}\|, \qquad \forall \mathbf{A},\mathbf{B}\in M_{n} \] \bejem En $M_{n}$ son normas matriciales las siguientes: \[ \dis \| \mathbf{A}\|_{F} = \dis \sqrt{{\sum}_{j=1}^{n}{\sum}_{i=1}^{n}|a_{ij}|^{2}},\,\|\mathbf{A}\|_{1}=\dis% \max_{1\leq j\leq n}\left\{{\sum}_{i=1}^{n}|a_{ij}|\right\},\,\] \[ \|\mathbf{A}\|_{\infty }=\dis \max_{1\leq i\leq n}\left\{{\sum}_{j=1}^{n}|a_{ij}|\right\} \] donde $\| \mathbf{A}\|_F$ se conoce como la norma de Fr\"{o}benius. \enejem Asimismo, siendo $\rho (\mathbf{A})$ el radio espectral de la matriz \textbf{% A} (es decir, el m\'{o}dulo del valor propio de \textbf{A} que tenga mayor m\'{o}dulo) y designando por \textbf{A*} a la matriz adjunta de \textbf{A} (la traspuesta si \textbf{A} es una matriz real) la aplicaci\'{o}n $\|% \mathbf{A}\|_{2}=\sqrt{\rho (\mathbf{A}^{*}\mathbf{\cdot A})}$ tambi\'{e}n es una norma matricial sobre $M_{n}$. \es Entre todas las normas matriciales que se pueden definir en $M_{n}$ es \'{u}til considerar un grupo de ellas que tiene una peculiaridad interesante: estar definidas a partir de una norma vectorial y, por tanto, estar vinculadas a normas vectoriales. Este grupo de normas matriciales se conocen con el nombre de normas matriciales subordinadas a una norma vectorial y pasamos a definirlo a continuaci\'{o}n (mediante una propiedad que puede consultarse por ejemplo en Ciarlet \& Lions [4]) \beprop Sea $\| \cdot \|$ una norma vectorial definida sobre $K^{n}$ (con $K = \R$ o $K = C$) y sea $M_{n}$ el espacio de las matrices cuadradas de orden n definidas sobre $K$. La aplicaci\'{o}n $\| \cdot \|$ definida de cualquiera de las formas (equivalentes entre s\'{\i}) siguientes: \[ \| \mathbf{A}\|=\dis {Sup}_{\{\mathbf{v}\in K^{n}\backslash\mathbf{0}\}}\left( \frac{\| \mathbf{Av}% \|}{\|\mathbf{v}\|}\right) ={Sup}_{\{\mathbf{v}\in K^{n}\backslash\mathbf{% 0/\|v\|\leq }1\}}\left( \|\mathbf{Av}\|\right) =$$ $${Sup}_{\{\mathbf{% v}\in K^{n}/\,\|\mathbf{v}\|=1\}}\left( \|\mathbf{A v}\|\right) \] es una norma matricial que se denomina \textbf{norma matricial subordinada} a la norma vectorial $\| \cdot \|$. \enprop \beobse En la definici\'{o}n anterior se ha utilizado el mismo s\'{\i}mbolo ($\| \cdot \|$) para referirse a la norma matricial y a la norma vectorial. F\'{a}cilmente distinguir\'{a} el lector entre una y otra por el tipo de elemento al que se aplica. \enobse Las normas matriciales subordinadas permiten trabajar con formas de medir ``coherentes'' entre los vectores y las matrices cuando estos aparecen mezclados en los problemas que deban abordarse. Es importante en este sentido tener siempre presente la siguiente propiedad que relaciona el valor de una norma vectorial con la norma matricial subordinada a ella: \beprop Siendo $\| \cdot \|$ una norma matricial (subordinada a la norma vectorial $% \| \cdot \|$) se verifica que: \[ \|\mathbf{Av}\| \leq \|\mathbf{A}\|\|\mathbf{v}\|\qquad \forall \mathbf{A}% \in M_{n},\qquad \forall \mathbf{v}\in K^{n} \] \enprop \underline{Demostraci\'{o}n:} \es Si $\mathbf{v} = \mathbf{0}$ entonces $\| \mathbf{Av}\|=0$ y $\| \mathbf{A}\| \| \mathbf{v}\| =0$, $\forall \,\mathbf{A}\in M_{n}$ por lo que se verifica el teorema (con el signo ``=''). \es Si $\mathbf{v}\neq \mathbf{0}$ se tiene que $\|\mathbf{v}\|\neq 0$ y por tanto: $$ \|\mathbf{Av}\|=\left\| \mathbf{A}\frac{\mathbf{v}}{\|\mathbf{v}\|}\|% \mathbf{v}\|\right\| =\left\| \mathbf{A}\frac{\mathbf{v}}{\|\mathbf{v}\|}% \right\| \|\mathbf{v}\|=\frac{\|\mathbf{Av}\|}{\|\mathbf{v}\|}\|\mathbf{v}% \| \leq $$ $$ \leq {Sup}_{\mathbf{u}\in K^{n}\setminus \mathbf{0}}\left( \frac{\|% \mathbf{Au}\|}{\|\mathbf{u}\|}\right) \|\mathbf{v}\| = \|\mathbf{A}\|\| \mathbf{v}\| $$ y esto se tiene $\forall \,\mathbf{A}\in M_{n}$ y $\forall \,\mathbf{v}\in K^{n}\setminus \mathbf{0}$. \hspace{10cm}c.q.d. \beobse Las normas matriciales $\| \cdot \|_1$, $\| \cdot \|_2$, y $\| \cdot \|_\infty$ antes definidas son normas matriciales subordinadas a las normas vectoriales de $\R^{n}$ definidas con los mismos sub\'{\i}ndices. Sin embargo, la norma de Fr\"{o}benius no es una norma matricial subordinada. \enobse \bejem Sea $\mathbf{A}$ la matriz: \[ \mathbf{A}=\left( \begin{array}{rrr} 1 & 1 & 0 \\ 1 & 2 & 1 \\ -1 & 1 & 2 \end{array} \right) \] Se verifica que: \[ {\sum }_{j=1}^{3}|a_{1,j}|=|1|+|1|+|0|=2 \] \[ {\sum }_{j=1}^{3}|a_{2,j}|=|1|+|2|+|1|=4 \] \[ {\sum }_{j=1}^{3}|a_{3,j}|=|-1|+|1|+|2|=4 \] por lo que $\|\mathbf{A}\|_{\infty }=\mbox{Sup}(2,4,4)=4.$ Por otra parte: \[ {\sum }_{i=1}^{3}|a_{i,1}|=|1|+|1|+|-1|=3 \] \[ {\sum }_{i=1}^{3}|a_{i,2}|=|1|+|2|+|1|=4 \] \[ {\sum }_{i=1}^{3}|a_{i,3}|=|0|+|1|+|2|=3 \] por lo que $\|\mathbf{A}\|_{1}=\mbox{Sup}(3,4,3)=4.$ Asimismo: \[ \mathbf{A}^{T}\mathbf{.A}=\left( \begin{array}{rrr} 1 & 1 & -1 \\ 1 & 2 & 1 \\ 0 & 1 & 2 \end{array} \right) .\left( \begin{array}{rrr} 1 & 1 & 0 \\ 1 & 2 & 1 \\ -1 & 1 & 2 \end{array} \right) =\left( \begin{array}{rrr} 3 & 2 & -1 \\ 2 & 6 & 4 \\ -1 & 4 & 5 \end{array} \right) \] El polinomio caracter\'{\i}stico de \textbf{A}$^{T}$\textbf{A} es: \[ p(\lambda )=\left| \begin{array}{rrr} (3-\lambda ) & 2 & -1 \\ 2 & (6-\lambda ) & 4 \\ -1 & 4 & (5-\lambda ) \end{array} \right| =-\lambda (\lambda ^{2}-14\lambda +12) \] cuyas ra\'{\i}ces son los valores propios $\lambda _{1}=0,$ $\lambda _{2}=7+% \sqrt{7}$ y $\lambda _{3}=7-\sqrt{7}.$ Por tanto el radio espectral de \textbf{A}$^{T}$\textbf{A} es: $\rho (\mathbf{A}^{T}\mathbf{.A})=Sup(0,7+% \sqrt{7},7-\sqrt{7})=7+\sqrt{7}.$ Y la norma-2 de \textbf{A} ser\'{a}: \[ \|\mathbf{A}\|_{2}=\sqrt{\rho (\mathbf{A}^{T}\mathbf{A})}=\sqrt{7+\sqrt{7}} \approx 3.106 \] \enejem En los m\'{e}todos iterativos que plantearemos en este cap\'{\i}tulo, la sucesi\'{o}n de vectores que, en su caso, vayan aproxim\'{a}ndose hacia la soluci\'{o}n, se generar\'{a} a partir de un vector inicial $\mathbf{x}^{(0)}$ mediante un esquema de c\'{a}lculo que se traducir\'{a} en determinar una funci\'{o}n $% \mathbf{g}(\mathbf{x})$ con la que el proceso iterativo se reducir\'{a} a: \[ \mathbf{x}^{(0)}\;\;\;\;dado \] \[ \mathbf{x}^{(i+1)}=\mathbf{g}(\mathbf{x}^{(i)})\;\;\;\;\;\;\;% \;(i=0,1,2,......) \] M\'{a}s adelante estudiaremos la forma de definir esta funci\'{o}n $\mathbf{g% }(\mathbf{x})$ (que obviamente tendr\'{a} que ver con el sistema que se quiera resolver). No obstante ya puede apreciarse con la consideraci\'{o}n que acaba de hacerse que el buen funcionamiento de un m\'{e}todo depender\'{a} de c\'{o}mo sea la funci\'{o}n $\mathbf{g}(\mathbf{x})$ escogida. Por tanto, nos interesar\'{a} trabajar, cuando ello sea posible con aplicaciones $\mathbf{g}(\mathbf{x})$ para las que se pueda asegurar que la sucesi\'{o}n que con ellas se genere es convergente hacia alguna soluci\'{o}n del sistema que se quiere resolver. \beobse En este sentido, dado un sistema de ecuaciones $\mathbf{f}(\mathbf{x})=% \mathbf{0}$ y considerado un m\'{e}todo de resoluci\'{o}n del mismo en la forma: ``Dado $\mathbf{x}^{(0)}\in D,$\textit{\ }$\mathbf{x}^{(i+1)}=\mathbf{% g}(\mathbf{x}^{(i)})$, $(i=0, 1, ...)$'', se dice que el m\'{e}todo es consistente con el sistema de ecuaciones cuando para toda soluci\'{o}n $% \mathbf{x}^{*}$ del sistema se verifica que $\mathbf{x}^{*}=\mathbf{g}(% \mathbf{x}^{*})$ y, viceversa, todo vector que verifique que $\mathbf{x}^{*}=% \mathbf{g}(\mathbf{x}^{*})$ es soluci\'{o}n del sistema. Asimismo se dir\'{a} que el m\'{e}todo es estable cuando para cualquier vector $\mathbf{x% }^{(0)}$ de partida tomado en $D$ se verifique que la sucesi\'{o}n $\left\{ \mathbf{x}^{(i+1)}=\mathbf{g}(\mathbf{x}^{(i)})\right\} _{i=0}^{\infty }$ es una sucesi\'{o}n convergente. Y por \'{u}ltimo diremos que el m\'{e}todo es convergente en el dominio $D,$ para el sistema considerado, cuando para cualquier $\mathbf{x}^{(0)}\in D$ se verifique que la sucesi\'{o}n $\left\{ \mathbf{x}^{(i+1)}=\mathbf{g}(\mathbf{x}^{(i)})\right\} _{i=0}^{\infty }$ converge hacia alguna ra\'{\i}z $\mathbf{x}^{*}$ de la ecuaci\'{o}n. Obs\'{e}rvese que con estas definiciones, todo m\'{e}todo que sea a la vez consistente y estable es convergente y que todo m\'{e}todo que sea convergente es consistente y estable. Esta relaci\'{o}n de consistencia, estabilidad y convergencia volveremos a plantearlas al estudiar m\'{e}todos num\'{e}ricos para la resoluci\'{o}n de ecuaciones diferenciales y, all\'{\i}, ser\'{a} de enorme utilidad para el an\'{a}lisis de la convergencia de los esquemas num\'{e}ricos. Nosotros, en este cap\'{\i}tulo, nos limitaremos a analizar la convergencia de los m\'{e}todos num\'{e}ricos por otros procedimientos. \enobse Si $\mathbf{x}^{*}$ fuese el l\'{\i}mite de la sucesi\'{o}n generada mediante el esquema anterior y adem\'{a}s la aplicaci\'{o}n $\mathbf{g}(\mathbf{x})$ fuese continua se verificar\'{a} que: \[ \lim_{i\to \infty }(\mathbf{x}^{(i+1)})= \lim_{i\to \infty }\mathbf{g}(\mathbf{x}^{(i)}) \quad \Leftrightarrow \quad \mathbf{x}^{*}=\mathbf{g}(\mathbf{x}^{*}) \] Los puntos $\mathbf{x}^{*}$, del dominio sobre el que est\'{a} definida una aplicaci\'{o}n $\mathbf{g}(\mathbf{x}),$ que verifican que $\mathbf{x}^{*}=% \mathbf{g}(\mathbf{x}^{*})$ reciben el nombre de puntos fijos de la aplicaci\'{o}n. M\'{a}s concretamente: \begin{dfn} Siendo $\mathbf{g}$ una aplicaci\'{o}n definida en un espacio m\'{e}trico (E, d) y con valores en el mismo espacio m\'{e}trico, se denomina \textbf{% punto fijo} de la aplicaci\'{o}n $\mathbf{g}$ a todo elemento $\mathbf{x}% ^{*} $ de E tal que $\mathbf{x}^{*}=\mathbf{g}(\mathbf{x}^{*}).$ \end{dfn} Interesar\'{a} por tanto trabajar con funciones $\mathbf{g}$ que posean un punto fijo. Un tipo de tales funciones son las que se denominan contracciones y que pasamos a definir a continuaci\'{o}n: \begin{dfn} Sean (E, d) y (V, d') dos espacios m\'{e}tricos y sea $g:E\rightarrow V$ una aplicaci\'{o}n definida en E y con valores en V. Se dice que $g$ es una \textbf{aplicaci\'{o}n lipschitciana} cuando existe una constante real $k>0$ tal que: $$ d^{\prime }(g(x),g(y))\leq k d(x,y)\qquad \forall \,x,y\in E $$ A la menor constante k que verifica la condici\'{o}n anterior se la denomina \textbf{constante de Lipschitz (o raz\'{o}n)} de la aplicaci\'{o}n. \end{dfn} \beobse En el caso de que se est\'{e} trabajando sobre los espacios vectoriales normados $(E,\,\|\cdot\|)$ y $(V,\, \|\cdot\|' )$ toda aplicaci\'{o}n $% \mathbf{g}:E\rightarrow V$ que sea lipschitciana de raz\'{o}n k verificar\'{a}: \[ \|\mathbf{g}(\mathbf{x})-\mathbf{g}(\mathbf{y})\|^{\prime }\leq k \|\mathbf{x% }-\mathbf{y}\| ,\qquad \forall \,\mathbf{x,y}\in E \] \enobse \beprop Toda aplicaci\'{o}n lipschitciana definida en $(E, d)$ y con valores en $% (V,d^{\prime})$ es una aplicaci\'{o}n continua en todo $E$. \enprop \underline{Demostraci\'{o}n:} \es Si $\mathbf{g}:E\rightarrow V$ es una aplicaci\'{o}n lipschitciana con constante de Lipschitz $k$ se verificar\'{a} que $d^{\prime }(\mathbf{g}(\mathbf{x}),\mathbf{g}(\mathbf{y}% ))\leq k \cdot d(\mathbf{x},\mathbf{y}).$ Por tanto para cualquier valor de $% \varepsilon $ estr\'{\i}ctamente positivo y para cualquier punto $\mathbf{x} \in E$ se tiene que: \[ \forall \,\varepsilon >0,\quad \exists \,\delta =\frac{\varepsilon }{k}% \;\;\diagup d(\mathbf{x},\mathbf{y})<\delta \Rightarrow d^{\prime }(\mathbf{g% }(\mathbf{x}),\mathbf{g}(\mathbf{y}))\leq k \cdot d(\mathbf{x},\mathbf{y}% )<\varepsilon \] Por tanto $g$ es continua en todo punto $x\in E.$ \hspace{10cm}c.q.d. %paramem\beobse %A\'{u}n podr\'{i}a decirse m\'{a}s: toda aplicaci\'{o}n lipschitciana es %uniformemente continua. \enobse \begin{dfn} A toda aplicaci\'{o}n lipschitciana que verifique las dos condiciones si\-guien\-tes: \begin{itemize} \item[$1^{a}$)] Estar definida en un espacio m\'{e}trico $(E, d)$ sobre s\'{\i} mismo: $g:E\rightarrow E$, \item[$2^{a}$)] Tener una constante de Lipschitz estr\'{\i}ctamente inferior a $1$, \end{itemize} se la denomina \textbf{contracci\'{o}n} sobre E. \end{dfn} El hecho de que para las contracciones se garantice la convergencia de la sucesi\'{o}n generada mediante el esquema de c\'{a}lculo: \[ \mathbf{x}^{(0)}\;\;\;\;dado \] \[ \mathbf{x}^{(i+1)}=\mathbf{g}(\mathbf{x}^{(i)})\;\;\;\;\;\;\;% \;(i=0,1,2,......) \] se debe al teorema que se expone a continuaci\'{o}n. Se recomienda prestar atenci\'{o}n a la demostraci\'{o}n del mismo, realizada mediante la t\'{e}cnica de \textbf{a\-pro\-xi\-ma\-cio\-nes sucesivas}, pues en ella se recogen las bases de los m\'{e}todos de resoluci\'{o}n de sistemas de ecuaciones. \beteor[del punto fijo]\label{fico} Toda contracci\'{o}n definida sobre un espacio m\'{e}trico completo admite un \'{u}nico punto fijo. \enteor \underline{Demostraci\'{o}n:} \es a) {\bf Existencia}. Comencemos demostrando la existencia del punto fijo. Sea %%@ $\mathbf{g}% :E\rightarrow E$ una contracci\'{o}n, de constante de Lipschitz $k<1$, definida en el espacio m\'{e}trico $(E, d)$ y sea $\mathbf{x}^{(0)}$ un elemento cualquiera de $E$. Consid\'{e}rese entonces la sucesi\'{o}n formada a partir de $\mathbf{x}^{(0)}$ mediante: \[ \mathbf{x}^{(i+1)}=\mathbf{g}(\mathbf{x}^{(i)}),\qquad i = 0, 1, 2, ,.... \] Para la sucesi\'{o}n $\left\{ \mathbf{x}^{(i)}\right\} _{i=0}^{\infty }$ se verificar\'{a}: \[ d(\mathbf{x}^{(1)},\mathbf{x}^{(2)})=d(\mathbf{g}(\mathbf{x}^{(0)}),\mathbf{g% }(\mathbf{x}^{(1)}))\leq k d(\mathbf{x}^{(0)},\mathbf{x}^{(1)}) \] \[ d(\mathbf{x}^{(2)},\mathbf{x}^{(3)})=d(\mathbf{g}(\mathbf{x}^{(1)}),\mathbf{g% }(\mathbf{x}^{(2)}))\leq k d(\mathbf{x}^{(1)},\mathbf{x}^{(2)})\leq k^{2} d(\mathbf{x}^{(0)},\mathbf{x}^{(1)}) \] \[ ............ \] \[ d(\mathbf{x}^{(n)},\mathbf{x}^{(n+1)})\leq k^{n} d(\mathbf{x}^{(0)},% \mathbf{x}^{(1)}) \] \[ .......... \] De estas desigualdades, aplicando la desigualdad triangular de las distancias, resultar\'{a} que: \[ d(\mathbf{x}^{(n)},\mathbf{x}^{(n+p)})\leq d(\mathbf{x}^{(n)},\mathbf{x}% ^{(n+1)})+d(\mathbf{x}^{(n+1)},\mathbf{x}^{(n+p)})\leq \] \[ \leq d(\mathbf{x}^{(n)},\mathbf{x}^{(n+1)})+d(\mathbf{x}^{(n+1)},\mathbf{x}% ^{(n+2)})+d(\mathbf{x}^{(n+2)},\mathbf{x}^{(n+p)})\leq \] \[ \leq d(\mathbf{x}^{(n)},\mathbf{x}^{(n+1)})+d(\mathbf{x}^{(n+1)},\mathbf{x}% ^{(n+2)})+.....+d(\mathbf{x}^{(n+p-1)},\mathbf{x}^{(n+p)})\leq \] \[ \leq k^{n} d(\mathbf{x}^{(0)},\mathbf{x}^{(1)})+k^{(n+1)} d(% \mathbf{x}^{(0)},\mathbf{x}^{(1)})+.....+k^{(n+p-1)} d(\mathbf{x}^{(0)},% \mathbf{x}^{(1)})= \] \[ =k^{n} d(\mathbf{x}^{(0)},\mathbf{x}^{(1)})[1+k+....+k^{(p-1)}]\leq k^{n} d(\mathbf{x}^{(0)},\mathbf{x}^{(1)}) \left( {\sum }_{i=0}^{\infty } k^{i}\right) \] En la expresi\'{o}n anterior, el sumatorio que aparece representa la suma de una progresi\'{o}n geom\'{e}trica de raz\'{o}n $k(<1)$ y cuyo primer t\'{e}rmino toma el valor 1. Por tanto: \[ \dis {\sum }_{i=0}^{\infty }k^{i}=\dis \frac{1}{1-k} \] lo que nos conduce a que: \[ d(\mathbf{x}^{(n)},\mathbf{x}^{(n+p)})\leq \frac{k^{n}}{1-k}d(\mathbf{x}% ^{(0)},\mathbf{x}^{(1)}) \] y puesto que, al ser $\mathbf{g}(\mathbf{x})$ una contracci\'{o}n, $k$ es estr\'{\i}ctamente inferior a $1$, para cualquier valor de $\varepsilon $ positivo bastar\'{a} con considerar el \'{\i}ndice natural $N$ de forma que: \[ N\geq \dis \frac{\log \left( \frac{\varepsilon (1-k)}{d(\mathbf{x}^{(0)},% \mathbf{x}^{(1)})}\right) }{\log (k)} \] para que se verifique que $d(\mathbf{x}^{(n)},\mathbf{x}^{(m)})<\varepsilon $ para todo par de \'{\i}ndices $n$ y $m$ mayores que $N$. En definitiva, la sucesi\'{o}n $\left\{ \mathbf{x}^{(i)}\right\} _{i=0}^{\infty }$ es una sucesi\'{o}n de Cauchy. Y como, por las hip\'{o}tesis del teorema, se est\'{a} trabajando en un espacio m\'{e}trico completo, admitir\'{a} l\'{\i}mite $\mathbf{x}^{*}$. Y puesto que al ser $\mathbf{g}$ una contracci\'{o}n es continua se verificar\'{a} que: \[ \mathbf{g}(\mathbf{x}^{*})={\lim }_{i\rightarrow \infty }\mathbf{g}% (\mathbf{x}^{(i)})={\lim }_{i\rightarrow \infty }\mathbf{x}% ^{(i+1)}=\mathbf{x}^{*} \] Luego $\mathbf{g}(\mathbf{x})$ admite un punto fijo que es el l\'{\i}mite de la sucesi\'{o}n generada mediante: \[ \mathbf{x}^{(i+1)}=\mathbf{g}(\mathbf{x}^{(i)}),\qquad i = 0, 1, 2,... \] a partir de cualquier elemento $\mathbf{x}^{(0)}$ perteneciente a $E$. \es b) {\bf Unicidad}. Demostremos ahora la unicidad del punto fijo. Esta cuesti\'{o}n es c\'{o}moda demostrarla mediante reducci\'{o}n al absurdo. En efecto, consideremos por un momento que en las condiciones del teorema hubiera dos elementos distintos de $E$, que denotaremos por $\mathbf{a}$ y $\mathbf{b}$, que fuesen puntos fijos. Al ser distintos se tendr\'{a} que $d(\mathbf{a},\mathbf{b}) > 0$. Pero por otra parte se debe verificar que: \[ d(\mathbf{a},\mathbf{b})=d(\mathbf{g}(\mathbf{a}),\mathbf{g}(\mathbf{b}% ))\leq kd(\mathbf{a},\mathbf{b})0 $ se verificar\'{a} que $f(x_{1})f(b)<0$ lo que nos indicar\'{\i}a que en el intervalo $[x_{1},b]$ existir\'{a} al menos una ra\'{\i}z. Por tanto se habr\'{a} definido as\'{\i} un nuevo intervalo $% [a_{1},b_{1}]$ en el que existir\'{a} una soluci\'{o}n. A \'{e}l puede aplic\'{a}rsele nuevamente el proceso anterior. \es En general, partiendo de un intervalo $[a_{j},b_{j}]$ en el que $% f(a_{j})f(b_{j})<0$ se denotar\'{a} por $x_{j+1}$ al punto medio del intervalo: \[ x_{j+1}=\frac{a_{j}+b_{j}}{2} \] procediendo a continuaci\'{o}n de la forma siguiente: \begin{itemize} \item[a)] Si $f(x_{j+1})=0$ se habr\'{a} obtenido una soluci\'{o}n de la ecuaci\'{o}n: el punto $x_{j+1}.$ \item[b)] Si $f(a_{j}) f(x_{j+1})<0$ se denotar\'{a} por: $% a_{j+1}=a_{j}$ y por $b_{j+1}=x_{j+1}$. \item[c)] Si $f(a_{j}) f(x_{j+1})>0$ se denotar\'{a} por: $% a_{j+1}=x_{j+1}$ y por $b_{j+1}=b_{j}$. \end{itemize} Al nuevo intervalo $\left[ a_{j+1},b_{j+1}\right] $ se le vuelve a aplicar el mismo proceso. \es El problema que se nos puede plantear es: y si ning\'{u}n valor $f(x_{j})$ (j = 1, 2, ....) tiene la gracia de anularse \textquestiondown cu\'{a}ndo se detiene el proceso iterativo?. La respuesta a esta pregunta depender\'{a} de la precisi\'{o}n con la que se desee obtener la aproximaci\'{o}n de la soluci\'{o}n buscada. En efecto, si se parte de un intervalo $[a,$ $b]$ la longitud del mismo es $|b-a|.$ En la primera iteraci\'{o}n se obtendr\'{a} un intervalo $[a_{1},b_{1}]$ cuya longitud ser\'{a} la mitad del anterior, es decir $\frac{|b-a|}{2}$ . A su vez, en la segunda iteraci\'{o}n se obtendr\'{a} un intervalo $[a_{2},b_{2}]$ de longitud mitad que el anterior, es decir $\frac{|b-a|}{2^{2}}.$ Siguiendo este proceso, en la j-\'{e}sima iteraci\'{o}n se obtendr\'{a} un intervalo $[a_{j},b_{j}]$ cuya longitud ser\'{a} $\frac{|b-a|}{2^{j}}.$ Si se tomara como aproximaci\'{o}n de la soluci\'{o}n $x^{*}$ existente en dicho intervalo el punto medio $x_{j+1}$ es evidente que $$ \dis |x_{j+1}-x^{*}|\leq \frac{|b_{j}-a_{j}|}{2}=\frac{|b-a|}{2^{(j+1)}}. $$ Por tanto, si se desease estar seguro de que la distancia de la aproximaci\'{o}n $x_{j+1}$ a la ra\'{i}z $x^{*}$ fuese inferior a un determinado valor $\varepsilon $ deber\'{\i}an realizarse un n\'{u}mero $j$ de iteraciones tal que: \[ \frac{|b-a|}{2^{(j+1)}}<\varepsilon \quad \Rightarrow \quad (j+1)\log (2)>\log \left( \frac{|b-a|}{\varepsilon }\right) \quad \Rightarrow \quad j>\frac{\log \left( \frac{|b-a|% }{\varepsilon }\right) }{\log (2)}-1 \] \beobse Obs\'{e}rvese que el n\'{u}mero de iteraciones anterior asegurar\'{i}a la precisi\'{o}n deseada pero que ello no impide el que alg\'{u}n valor $x_{i}$ calculado en alguna iteraci\'{o}n anterior pueda estar igual de cerca (o m\'{a}s) de la soluci\'{o}n buscada. \enobse Todo el proceso que hasta aqu\'{\i} se acaba de describir podr\'{i}a sintetizarse en el si\-guien\-te algoritmo: \es \centerline{{\bf Algoritmo del m\'{e}todo de bipartici\'{o}n:}} \es Dada la ecuaci\'{o}n $f(x)=0$, el indicador de precisi\'{o}n $\varepsilon $ y dos puntos $a$ y $b$ en los que $f(a) f(b)<0$, \begin{enumerate} \item Estimar el menor n\'{u}mero natural $N$ tal que: \[ N>\dis \frac{\log \left( \frac{|b-a|}{\varepsilon }\right) }{\log (2)}-1 \] \item \textbf{Para} $j=1,$ \textbf{hasta} $j=N,$ \textbf{con paso} $1$, \textbf{hacer:} \[ x_{j}\leftarrow \frac{a+b}{2} \] \hspace{1cm}\textbf{Si} $(f(x_{j})=0)\;$\textbf{entonces:} \hspace{2cm}tomar $x_{j}$ como ra\'{\i}z $x^{*}$ y finalizar el proceso \hspace{1cm}\textbf{si no:} \hspace{2cm}\textbf{Si} $(f(x_{j}) f(a)$ $<$ $0)$ \textbf{entonces}: $\hspace{3cm}b\leftarrow x_{j}$ \hspace{2cm}\textbf{si no}: $\hspace{3cm}a\leftarrow x_{j}$ \hspace{2cm}\textbf{fin condici\'{o}n.} \hspace{1cm}\textbf{fin condici\'{o}n}. \textbf{Fin bucle} en j. $x^{*}\approx \dis \frac{a+b}{2}$ \end{enumerate} \textbf{Fin del algoritmo.} \es El algoritmo anterior nos permitir\'{a} encontrar, en las condiciones que garantizan el \'{e}xito del proceso (esto es que $f(x)$ sea continua), una de las ra\'{\i}ces existentes en $[a,b]$. ż`Pero qu\'{e} condiciones nos podr\'{i}an garantizar que dicha ra\'{\i}z es la \'{u}nica existente en $% [a,b] $?. Una posibilidad para ello podr\'{\i}a ser el que la funci\'{o}n $% f(x)$ fuese estrictamente mon\'{o}tona en el intervalo $[a,b]$. En otros t\'{e}rminos, el proceso anterior nos demuestra el siguiente resultado: \beprop Si la funci\'{o}n $f(x)$ es continua y estr\'{\i}ctamente mon\'{o}tona en el intervalo $[a,b]$ y adem\'{a}s es tal que $f(a) f(b)<0$, dado un valor real positivo $\varepsilon $ y denotando por $N$ al menor n\'{u}mero natural tal que: \[ N>\frac{\log \left( \frac{|b-a|}{\varepsilon }\right) }{\log (2)}-1 \] se verifica que $N$ iteraciones del proceso de bipartici\'{o}n antes descrito conducen a un valor $x_{N+1}$ que dista de la \'{u}nica soluci\'{o}n existente en el intervalo $[a,b]$ de la ecuaci\'{o}n $f(x)=0$ una magnitud inferior a $\varepsilon $. \enprop Ilustremos el m\'{e}todo descrito con un ejemplo. \bejem (Cortes\'{i}a del Pr. J. Aguado): La presi\'{o}n de vapor del n-hexano y del n-octano se pueden relacionar con la temperatura a la que se encuentren mediante las siguientes expresiones: \[ \log (P_{C_{6}}^{0})=15.8737-\frac{2697.55}{T-48.784} \] \[ \log (P_{C_{8}}^{0})=15.9798-\frac{3127.60}{T-63.633} \] donde la presi\'{o}n $P_{i}^{0}$ est\'{a} dada en mil\'{\i}metros de mercurio y la temperatura $T$ en grados Kelvin. Ello nos permite estimar la temperatura de ebullici\'{o}n del n-hexano a 2 atm\'{o}sferas (1520 mm Hg) en 364.39${{}^{o}}$K y la del n-octano a la misma presi\'{o}n en 425.07${% {}^{o}}$K. Se desea conocer, tambi\'{e}n a la presi\'{o}n de 2 atm\'{o}sferas, la tem\-pe\-ra\-tu\-ra de ebullici\'{o}n de una mezcla l\'{\i}quida que contenga un 50\% en moles de ambos componentes. \enejem Para ello, denotando por $x_{1}$ a la fracci\'{o}n molar en la fase l\'{\i}quida de n-hexano y por $x_{2}$ a la fracci\'{o}n molar del n-octano se tendr\'{a} que $x_{1}=$ $x_{2}=0.5.$ Puesto que el vapor estar\'{a} en equilibrio, siendo P su presi\'{o}n total (1520 mm Hg) y designando por $% y_{1}$ e $y_{2}$ a las fracciones de cada componente en el vapor se tendr\'{a} que: \[ y_{1}=\frac{P_{1}^{0}}{P} x_{1}=\frac{P_{1}^{0}}{2 P} \] \[ y_{2}=\frac{P_{2}^{0}}{P} x_{2}=\frac{P_{2}^{0}}{2 P} \] debiendo verificarse que: \[ y_{1}+y_{2}=1 \quad \Leftrightarrow \quad \frac{P_{1}^{0}}{2 P}+\frac{P_{2}^{0}}{% 2 P}=1 \] lo que, reemplazando $P_{1}^{0}$ y $P_{2}^{0}$ por sus expresiones en funci\'{o}n de la temperatura, nos conduce a la ecuaci\'{o}n no lineal: \[ f(T)=\dis \frac{e^{15.8737-\frac{2697.55}{T-48.784}}}{3040}+\frac{e^{15.9798-\frac{% 3127.60}{T-63.633}}}{3040}-1=0 \] La temperatura de ebullici\'{o}n $T^{*}$ de la mezcla ser\'{a} superior a la temperatura de ebullici\'{o}n del n-hexano puro (364.39${{}^{o}}$K) e inferior a la del n-octano puro (425.07${{}^{o}}$K). Por ello un intervalo natural en el que buscar la soluci\'{o}n puede ser [364, 425]. En este intervalo se verifica que $f(T)$ es una funci\'{o}n continua (es suma de exponenciales cuyos exponentes est\'{a}n bien definidos en el intervalo de trabajo) y adem\'{a}s es estr\'{\i}ctamente mon\'{o}tona creciente (pues es la suma de funciones estr\'{\i}ctamente mon\'{o}tonas crecientes). Si en la ecuaci\'{o}n anterior a $T$ se le da el valor \ $T=364{^{o}}K$ se tendr\'{a} que $f(364)<0.$ An\'{a}logamente si a $T$ se le da el valor \ $% T=425{{}^{o}}K$ se tendr\'{a} que $f(425)>0.$ Por todo ello existir\'{a} una \'{u}nica soluci\'{o}n de la ecuaci\'{o}n en dicho intervalo. Si se desea encontrar esta soluci\'{o}n con una precisi\'{o}n de $\varepsilon =10^{-6}$ deber\'{a}n realizarse al menos un n\'{u}mero $N$ de iteraciones del m\'{e}todo de bipartici\'{o}n tal que: \[ N>\dis \frac{\log \left( \frac{61}{10^{-6}}\right) }{\log (2)}-1\approx 24.862 \] es decir $25$ iteraciones. En la primera iteraci\'{o}n se tomar\'{a}: \[ x_{1}=\frac{364+425}{2}=394.5 \] resultando que $f(394.5)=0.277432>0.$ Por tanto, la ra\'{\i}z buscada estar\'{a} en el intervalo [364, 394.5]. En la segunda iteraci\'{o}n se considerar\'{a}: \[ x_{2}=\frac{364+394.5}{2}=379.25 \] resultando que $f(379.25)=-0.123283<0$ por lo que la soluci\'{o}n se buscar\'{a} en [379.25, 394.5]. En la tercera iteraci\'{o}n: \[ x_{3}=\frac{379.25+394.5}{2}=386.875 \] valor para el que $f(386.875)=0.0626451>0$ por lo que la soluci\'{o}n se buscar\'{a} en el intervalo [379.25, 386.875]. Posteriores iteraciones del m\'{e}todo de bipartici\'{o}n nos van conduciendo a los valores: $% x_{4}=383.0625,$ $x_{5}=384.96...,$ $.....,$ $x_{26}=384.4294930547....$ verific\'{a}ndose en este punto que \[ f(384.4294930547..)=-0.857630E-08 \] \beobse Las primeras referencias sobre este m\'{e}todo de resoluci\'{o}n de ecuaciones, aplicado a la determinaci\'{o}n de las ra\'{\i}ces de un polinomio de grado 3, se deben al polifac\'{e}tico cient\'{\i}fico belga Simon Stevin que vivi\'{o} entre 1548 y 1620. \enobse \subsection{El m\'{e}todo de aproximaciones sucesivas} El m\'{e}todo de aproximaciones sucesivas (o del punto fijo) para determinar una soluci\'{o}n de la ecuaci\'{o}n no lineal $f(x)=0$ se basa en el teorema del punto fijo demostrado en la secci\'{o}n anterior (teorema (\ref{fico})). Para ello el primer paso que se realiza en este m\'{e}todo consiste en reescribir la ecuaci\'{o}n $f(x)=0$ en la forma $x=g(x)$. Advi\'{e}rtase que existen m\'{u}ltiples posibilidades para transformar la ecuaci\'{o}n $f(x)=0$ en otra del tipo $x=g(x)$. Por ejemplo podr\'{\i}a despejarse (de la forma que sea) $x$ de la expresi\'{o}n de la ecuaci\'{o}n $% f(x)=0$. O podr\'{a} sumarse la variable $x$ en ambos lados de la ecuaci\'{o}n y designar por $g(x)$ a $(f(x)+x)$: \[ 0=f(x)\Leftrightarrow x=f(x)+x=g(x) \] O, siendo $\alpha \neq 0$ podr\'{a} realizarse el proceso: \[ 0=f(x)\Leftrightarrow x=\alpha f(x)+x=g(x) \] O bien, siendo $\alpha \neq 0$ y $\beta \neq 0:$% \[ 0=f(x)\Leftrightarrow \alpha x=\alpha x+\beta f(x)\Leftrightarrow x=\frac{\alpha x+\beta f(x)}{\alpha }=g(x) \] O bien: \[ 0=f(x)\Leftrightarrow x^{k}=\alpha f(x)+x^{k}\Leftrightarrow x=\sqrt[k% ]{\alpha f(x)+x^{k}}=g(x) \] O por ejemplo: \[ 0=f(x)\Leftrightarrow \cos (x)=f(x)+\cos (x)\Leftrightarrow x=\arccos (f(x)+\cos (x)) \] Y muchas otras opciones ser\'{\i}an posibles. No obstante, no debe confundirse el hecho de que sea posible considerar m\'{u}ltiples formas de rescribir la ecuaci\'{o}n en la forma $x=g(x)$ con el que sea indiferente la forma de hacerlo. En efecto la elecci\'{o}n de la funci\'{o}n $g(x)$ no es independiente de la eficacia del m\'{e}todo pudi\'{e}ndose formar funciones $% g(x)$ que no est\'{e}n definidas en parte del intervalo en el que se vaya a trabajar, o que no sean aplicaciones, o que no sean continuas, o que .....no sean contracciones. Desde luego no tendr\'{a}n el mismo comportamiento unas que otras. Pero dejemos para un poco m\'{a}s adelante el an\'alisis sobre cuales son las ``buenas'' funciones $g(x)$ que nos interesan. En todo caso, una vez rescrita la ecuaci\'{o}n $f(x)=0$ en la forma $x=g(x)$ el m\'{e}todo de aproximaciones sucesivas busca un punto fijo de la aplicaci\'{o}n $g(x)$ mediante el {\bf esquema de c\'{a}lculo} siguiente: \hspace{1cm}{\em Dado un valor $x_{0}$ se genera la sucesi\'{o}n} $\left\{ x_{i+1}=g(x_{i})\right\} _{i=0}^{\infty }$. \es Seg\'{u}n lo visto en la secci\'{o}n anterior se tiene el siguiente resultado: \beteor\label{ac0} Si $g(x)$ es una contracci\'{o}n definida sobre un intervalo $[a,b]$ entonces el m\'{e}todo de aproximaciones sucesivas que se acaba de describir ge\-ne\-ra, a partir de cualquier valor inicial $x_{0}\in [a,b],$ una sucesi\'{o}n $\left\{ x_{i}\right\} _{i=0}^{\infty }$ que converge hacia la \'{u}nica soluci\'{o}n de la ecuaci\'{o}n $x=g(x)$ en el intervalo $[a,b]$. \enteor \underline{Demostraci\'{o}n:} En virtud del teorema del punto fijo, por ser $% g(x)$ una contracci\'{o}n definida sobre el espacio m\'{e}trico completo $% \left( \left[ a,b\right] ,d_{f}\right) $ admitir\'{a} un \'{u}nico punto fijo $x^{*}$ que ser\'{a} el l\'{\i}mite de la sucesi\'{o}n $\left\{ x_{i}\right\} _{i=0}^{\infty }.$ \hspace{10cm}c.q.d. \beobse Es necesario hacer las siguientes observaciones: \begin{enumerate} \item Puesto que la ecuaci\'{o}n $f(x)=0$ es equivalente a $x=g(x),$ en las condiciones del teorema anterior, $x^{*}$ ser\'{a} soluci\'{o}n en $[a,b]$ de la ecuaci\'{o}n equivalente $f(x)=0$. \item En otros t\'{e}rminos las buenas funciones $g(x)$ que nos interesan son aquellas que sean contracciones sobre un determinado intervalo $[a,b]$ en el que se buscar\'{a} la \'{u}nica soluci\'{o}n en \'{e}l existente. Adem\'{a}s, como se justific\'{o} en las notas realizadas al teorema del punto fijo, cuanto menor sea la constante de Lipschitz de la contracci\'{o}n $g(x)$ m\'{a}s r\'{a}pidamente converger\'{a} el m\'{e}todo hacia la soluci\'{o}n. \item Interpr\'{e}tese bien el teorema anterior. En \'{e}l se asegura que bajo ciertas hip\'{o}tesis (el ser $g(x)$ una contracci\'{o}n en $% ([a,b],d_{f}))$ el m\'{e}todo de aproximaciones sucesivas nos conduce a la \'{u}nica soluci\'{o}n existente en $[a,b]$ de la ecuaci\'{o}n $f(x)=0$. Pero no se impide que el m\'{e}todo funcione si no se verifican las hip\'{o}tesis. Simplemente no se asegura su buen funcionamiento. \end{enumerate} \enobse El demostrar que una aplicaci\'{o}n $g(x)$ es una contracci\'{o}n mediante la determinaci\'{o}n de su constante de Lipschitz puede, en ciertas ocasiones, resultar algo laborioso. Por ello pueden contemplarse variantes m\'{a}s restrictivas (pero m\'{a}s f\'{a}cilmente aplicables en la pr\'{a}ctica) del teorema anterior. Un ejemplo de ello es el siguiente teorema: \beteor\label{ac1} Si $g(x)$ es una aplicaci\'{o}n de clase $C^{1}([a,b])$, que toma valores en $[a,b]$ y ve\-ri\-fi\-cando la condici\'{o}n: \[ \exists k<1\;\;/\;\;|g^{\prime }(x)|\leq k,\qquad \forall x\in [a,b] \] entonces la sucesi\'{o}n $\left\{ x_{i}\right\} _{i=0}^{\infty }$ generada, a partir de cualquier $x_{0}\in [a,b],$ converge hacia la \'{u}nica soluci\'{o}n de la ecuaci\'{o}n $x=g(x)$ en $[a,b]$. \enteor \underline{Demostraci\'{o}n:} Por aplicaci\'{o}n del teorema del valor medio se verificar\'{a} que: \[ \forall x,y\in [a,b]\quad \exists \,z\in ]a,b[\,\diagup \quad g(x)-g(y)=g^{\prime }(z)(x-y) \] y por haber supuesto que la primera derivada estaba acotada en valor absoluto se tendr\'{a} que: \[ \forall x,y\in [a,b]:\;\;\;\left| g(x)-g(y)\right| \leq k \left| x-y\right| <\left| x-y\right| \] por lo que, teniendo en cuenta que $g:[a,b]\rightarrow [a,b],$ resulta que $% g(x)$ es una contracci\'{o}n. Aplicando el teorema precedente quedar\'{a} totalmente demostrado este. \hspace{10cm}c.q.d. \beobse De hecho una aplicaci\'on $g$ de clase $C^1 ([a,b],\R )$ s\'olo puede contracci\'on si $| g^{\prime}(x)| <1$. Pero puede haber aplicaciones de clase $C^0$ que sean contracciones y que en alg\'un punto no admitan derivadas. De aqu\'{\i} el hecho de que el teorema anterior (\ref{ac1}) sea algo m\'as restrictivo que el teorema (\ref{ac0}). \enobse \beobse Cuando en las aplicaciones se utilice este teorema para comprobar que la aplicaci\'{o}n considerada es una contracci\'{o}n se tomar\'{a} como aproximaci\'{o}n de la constante de Lipschitz el valor $k=\dis \max_{% x\in [a,b]} \left\{ |g^{\prime }(x)|\right\} .$ \enobse Los dos teoremas precedentes establecen condiciones suficientes de convergencia global del m\'{e}todo sobre un intervalo $[a,b]$ (esto es independientemente del punto $x_{0}\in [a,b]$ con el que se arranque el proceso iterativo). Cuando se conozca un cierto entorno de la soluci\'{o}n buscada pueden establecerse resultados de convergencia local (esto es para valores de $x_{0}$ suficientemente cercanos a la soluci\'{o}n). As\'{\i} por ejemplo se tiene el siguiente teorema: \beteor Si existe una soluci\'{o}n $x^{*}$ de la ecuaci\'{o}n $x=g(x)$ en un intervalo $[a,b]$ en el que $g(x)$ es de clase $C^{1}([a,b])$ y $|g^{\prime }(x^{*})|<1$ entonces existe un valor $\delta >0$ tal que si $\left| x^{*}-x_{0}\right| <\delta $ la sucesi\'{o}n $\left\{ x_{i+1}=g(x_{i})\right\} _{i=0}^{\infty }$ verifica que: \begin{itemize} \item[a)] $\dis \left| x^{*}-x_{i}\right| <\delta ,\,\forall\, x_{i}$, \item[b)] $\dis {\lim }_{i\rightarrow \infty } x_{i}=x^{*}$. \end{itemize} \enteor \underline{Demostraci\'{o}n:} Por ser $g^{\prime }(x)$ continua en todo $% x\in [a,b]$ existir\'{a} un intervalo abierto de centro $x^{*}$ y radio $% \delta ^{\prime }$ tal que en \'{e}l se verifique: \[ |g^{\prime }(x)|\leq k<1\;\;\;\;\;\;\forall x\in ]x^{*}-\delta ^{\prime },x^{*}+\delta ^{\prime }[ \] Considerando un valor $\delta <\delta ^{\prime }$ se tendr\'{a} por tanto que: \[ |g^{\prime }(x)|\leq k<1\;\;\;\;\;\;\forall x\in [x^{*}-\delta ,x^{*}+\delta ] \] Adem\'{a}s, al ser $g$ de clase $C^{1}([x^{*}-\delta ,x^{*}+\delta ])$, un desarrollo en serie de Taylor nos conduce a que: \[ \forall x\in [x^{*}-\delta ,x^{*}+\delta ]\quad \exists\, \xi _{x}\in [x^{*}-\delta ,x^{*}+\delta ]\,\mbox{tal que} \] \[ \quad g(x)=g(x^{*})+(x-x^{*}) g^{\prime }(\xi _{x}) \] luego $\forall x\in [x^{*}-\delta ,x^{*}+\delta ]$ se tiene que $$ \left| x^{*}-g(x)\right| \leq \left| x-x^{*}\right| \leq \delta $$ lo que demuestra que $\forall x\in [x^{*}-\delta ,x^{*}+\delta ]$ la imagen $% g(x)$ tambi\'{e}n pertenece al intervalo $[x^{*}-\delta ,x^{*}+\delta ]$. Consecuentemente $g(x)$ es una contracci\'{o}n en $[x^{*}-\delta ,x^{*}+\delta ].$ Ello conduce a que: $\forall x_{i}\in \left\{ x_{i}\right\} _{i=1}^{\infty}$ se tiene que $$ |x_{i}-x^{*}|=|g(x_{i-1})-g(x^{*})|\leq k |x_{i-1}-x^{*}|\leq $$ \[ \leq k^{2} |x_{i-2}-x^{*}|\leq .....\leq k^{i} |x_{0}-x^{*}|\leq k^{i} \delta \] Al ser $k<1$ bastar\'{a} con escoger el \'{\i}ndice $i$ suficientemente elevado para que todos los elementos de la sucesi\'{o}n con \'{\i}ndice mayor que $i$ sean tan cercanos a $x^{*}$ como se desee. En otros t\'{e}rminos $$ x^{*}=\lim_{x\to\infty} x_{i}. $$ \hspace{10cm}c.q.d. \beobse Cuanto menor sea el valor de $|g^{\prime }(x^{*})|$ menor ser\'{a} la cota de $|x_{i}-x^{*}|$\ obtenida en la demostraci\'{o}n anterior y por ello mejor (en el sentido de m\'as r\'apida) ser\'{a} la convergencia del m\'{e}todo si se %%@ parte de un punto suficientemente cercano a la soluci\'{o}n. \enobse Los teoremas precedentes establecen condiciones suficientes para que el m\'{e}todo de apro\-xi\-ma\-cio\-nes sucesivas converja. De esta forma, si se verifican las hip\'{o}tesis de cualquiera de los teoremas anteriores, seleccionado el punto inicial $x_{0},$ todo consistir\'{a} en generar a partir de \'{e}l $x_{1}=g(x_{0}),$ y a partir de este $x_{2}=g(x_{1}),$ y as\'{\i} sucesivamente. Tras hacer infinitas iteraciones alcanzar\'{\i}amos la soluci\'{o}n buscada. Pero, evidentemente, no pueden realizarse ``infinitas'' iteraciones. Por ello la cuesti\'{o}n que nos planteamos ahora es \textquestiondown cu\'{a}ntas iteraciones nos garantizar\'{\i}an una precisi\'{o}n determinada?. La respuesta a este dilema nos la proporciona el siguiente teorema: \beteor \label{22} Siendo $g(x)$ una contracci\'{o}n definida en el intervalo $[a,b]$ la distancia entre la \'{u}nica soluci\'{o}n $x^{*}$ de la ecuaci\'{o}n $x=g(x)$ y cualquier elemento de la sucesi\'{o}n $\left\{ x_{n}=g(x_{n-1})\right\} _{n=0}^{\infty },$ generada a partir de cualquier valor $x_{0}\in [a,b],$ est\'{a} acotada mediante la expresi\'{o}n: \[ \left| x^{*}-x_{n}\right| \leq \frac{k^{n}}{1-k} \left| x_{1}-x_{0}\right| \] donde $k$ es la constante de Lipschitz de la contracci\'{o}n. \enteor \underline{Demostraci\'{o}n:} V\'{e}ase la segunda observaci\'on realizada tras la demostraci\'{o}n del teorema del punto fijo (\ref{fico}). \hspace{10cm}c.q.d. \beobse Es importante notar que: \begin{enumerate} \item Bajo las hip\'{o}tesis del teorema precedente, si se desea asegurar que el error cometido es menor que un cierto valor $\varepsilon $ la expresi\'{o}n anterior nos conduce que deben realizarse un n\'{u}mero $N$ de iteraciones tal que: \[ \dis \frac{k^{N}}{1-k} \left| x_{1}-x_{0}\right| <\varepsilon \Rightarrow N> % \dis \left| \frac{\log \left( \frac{\varepsilon (1-k)}{|x_{1}-x_{0}|}% \right) }{\log (k)}\right| \] \item Si no se conoce el valor exacto de la constante de Lipschitz de la aplicaci\'{o}n puede estimarse de forma aproximada de diferentes formas. Por ejemplo, tras cada iteraci\'{o}n del m\'{e}todo podr\'{i}a obtenerse una aproximaci\'{o}n de dicha constante mediante: \[ k\approx |g^{\prime }(x_{i})| \approx \frac{\left| g(x_{i-1})-g(x_{i-2})\right| }{\left| x_{i-1}-x_{i-2}\right| }=\frac{\left| x_{i}-x_{i-1}\right| }{\left| x_{i-1}-x_{i-2}\right| } \] \item Una interpretaci\'{o}n gr\'{a}fica del m\'{e}todo consiste simplemente en buscar la intersecci\'{o}n entre la bisectriz del primer cuadrante y la contracci\'{o}n $g(x)$\ mediante sucesivos ``escalones'' comprendidos entre la gr\'{a}fica de $g(x)$ y la bisectriz del primer cuadrante. Es decir: %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \begin{figure}[ht] \centering \includegraphics[width=0.6\textwidth]{fig41.eps} %\caption{} %\label{figura1} \end{figure} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%@ %%%%%%%%%%%%%%%%%% \end{enumerate} \enobse En la pr\'{a}ctica, en lugar de calcular a priori el n\'{u}mero de iteraciones a realizar se va estimando en cada iteraci\'{o}n la distancia del valor en ella hallado a la soluci\'{o}n exacta. Esta estimaci\'{o}n se realiza simplemente evaluando la diferencia entre las dos \'{u}ltimas aproximaciones halladas que, cuando $g(x)$ es una contracci\'{o}n, son un indicador de la cercan\'{i}a a la soluci\'{o}n exacta en virtud del siguiente teorema: \begin{theorem} Siendo $g(x)$ una contracci\'{o}n definida en el intervalo $[a,b]$ la distancia entre la \'{u}nica soluci\'{o}n $x^{*}$ de la ecuaci\'{o}n $x=g(x)$ y cualquier elemento de la sucesi\'{o}n $\left\{ x_{n}=g(x_{n-1})\right\} _{n=0}^{\infty },$ generada a partir de cualquier valor $x_{0}\in [a,b],$ est\'{a} acotada me\-dian\-te la expresi\'{o}n: \[ \left| x^{*}-x_{n}\right| \leq \frac{k}{1-k} \left| x_{n}-x_{(n-1)}\right| \] donde $k$ es la constante de Lipschitz de la contracci\'{o}n. \end{theorem} \underline{Demostraci\'{o}n:} V\'{e}ase la observaci\'on (\ref{richi}), apartado c), realizada tras la demostraci\'{o}n del teorema del punto fijo (\ref{fico}). \hspace{10cm}c.q.d. Con ello, cuando $g(x)$ sea una contracci\'{o}n, al ser $k<1$, bastar\'{a} con hacer un n\'{u}mero de iteraciones tal que $\left| x_{n}-x_{(n-1)}\right| $ sea suficientemente peque\~{n}o para asegurar que $% \left| x^{*}-x_{n}\right| $ tambi\'{e}n es peque\~{n}o. Este control de la convergencia debe acompa\~{n}arse con la limitaci\'{o}n del n\'{u}mero de iteraciones a realizar en previsi\'{o}n de los casos en los que, no siendo $% g(x)$ una contracci\'{o}n, el m\'{e}todo no converja. M\'{a}s concretamente un algoritmo del m\'{e}todo de aproximaciones sucesivas, en el que se parte de la ecuaci\'{o}n equivalente $x=g(x)$ es el siguiente: \es \centerline{{\bf Algoritmo del m\'{e}todo de aproximaciones sucesivas:}} \es Dada la ecuaci\'{o}n $x=g(x)$, el indicador de precisi\'{o}n $\varepsilon $ , un valor m\'{a}ximo del n\'{u}mero de iteraciones que se permiten realizar $(maxiter)$ y un punto $x_{0}$ con el que inicializar el proceso, $tol\leftarrow 2 \varepsilon $ $iteraci\acute{o}n\leftarrow 0$ \textbf{Mientras} \textbf{(} $(iteraci\acute{o}n\varepsilon )$ \textbf{)}, \textbf{hacer:} \[ x_{1}\leftarrow g(x_{0}) \] \[ tol\leftarrow \left| x_{1}-x_{0}\right| \] \[ iteraci\acute{o}n\leftarrow iteraci\acute{o}n+1 \] \[ x_{0}\leftarrow x_{1} \] \textbf{Fin bucle condicional}. \textbf{Si} $(tol<\varepsilon )\;$\textbf{entonces:} \ \ \ \ \ \ \ \ \ \ tomar $x_{1}$ como soluci\'{o}n \textbf{si no:} \ \ \ \ \ \ \ \ \ \ \textbf{Escribir} un mensaje de error en el proceso de c\'{a}lculo \textbf{fin condici\'{o}n}. \textbf{Fin del algoritmo.} \es Ilustremos el m\'{e}todo que se acaba de describir mediante un ejemplo. \bejem (Cortes\'{\i}a del Pr. J. Arsuaga): La expresi\'{o}n de Plank proporciona la densidad de energ\'{\i}a radiada $u$ (energ\'{\i}a por unidad de volumen) por un emisor perfecto (un cuerpo negro) que se encuentre a la temperatura absoluta $T$ en el intervalo de frecuencias desde un valor $% \vartheta $ hasta $\vartheta +\delta \vartheta $ mediante: \[ u(\vartheta ,T)=\frac{8\pi h}{c^{3}} \dis \frac{\vartheta ^{3}}{e^{\frac{% h \vartheta }{k T}}-1} \] En la ecuaci\'{o}n anterior $\pi $ puede tomarse como 3.1416, $h$ es la constante de Plank $(6.626 10^{-34}J\,s)$, $k$ es la constante de Boltzmann $(1.38066 10^{-23}J/K\mathcal{)}$ y $c$ es la velocidad de la luz en el vac\'{i}o $(c=3 10^{8}m/s).$ Se desea saber la frecuencia $% \vartheta >0$ para la que, a una determinada temperatura fija $T>0$, se hace m\'{a}xima la densidad de energ\'{i}a emitida. \enejem Para ello, siendo $u(\vartheta ,T)=u_T (\vartheta )$ la energ\'{\i}a radiada a temperatura prefijada $T>0$, es decir \[ u_{T}(\vartheta )=\frac{8\pi h}{c^{3}} \frac{\vartheta ^{3}}{e^{\frac{% h \vartheta }{k T}}-1} \] denotemos por $M$ a la constante: \[ M=\frac{8\pi h}{c^{3}} \] y por $N$ a la constante: \[ N=\frac{h}{k} \] Con esta notaci\'{o}n resultar\'{a} que: \[ u_{T}(\vartheta )=M \dis \frac{\vartheta ^{3}}{e^{N \frac{ \vartheta }{T}}-1}. \] El extremo de esta funci\'{o}n se alcanzar\'{a} en alg\'{u}n punto en el que se anule su primera derivada, es decir, que para calcularlo debe resolverse la ecuaci\'{o}n no lineal: \[ \frac{du_{T}}{d\vartheta }(\vartheta )=M.\frac{3 \vartheta ^{2} \left( e^{N \frac{\vartheta }{T}}-1\right) -\vartheta ^{3} \frac{N}{T} e^{N \frac{\vartheta }{T}}}{\left( e^{N \frac{% \vartheta }{T}}-1\right) ^{2}}=0. \] Puesto que el denominador de la expresi\'{o}n anterior nunca se anula (los valores de $\vartheta $ considerados son estr\'{\i}ctamente positivos) y la constante $M$ tampoco es nula, las soluciones de la ecuaci\'{o}n anterior son las mismas que las de la ecuaci\'{o}n: \[ 3 \vartheta ^{2} \left( e^{N \frac{ \vartheta }{T}% }-1\right) -\vartheta ^{3} \frac{N}{T} e^{N \frac{\vartheta }{% T}}=0 \] o, dividiendo esta expresi\'{o}n por $\vartheta ^{2},$ (lo cual nos eliminar\'{\i}a dos veces la frecuencia $\vartheta =0$ que est\'{a} descartada del conjunto de frecuencias con inter\'{e}s pr\'{a}ctico) se obtiene otra ecuaci\'{o}n con las mismas soluciones no nulas que las de la ecuaci\'{o}n anterior: \[ 3 \left( e^{N \frac{ \vartheta }{T}}-1\right) -N \frac{% \vartheta }{T} e^{N \frac{\vartheta }{T}}=0 \] Llamando $\alpha $ a la relaci\'{o}n: $\alpha =N \frac{\vartheta }{T}$ la ecuaci\'{o}n anterior se transforma en: \[ 3 \left( e^{\alpha }-1\right) -\alpha e^{\alpha }=0\Longleftrightarrow \left( 3-\alpha \right) e^{\alpha }=3\Leftrightarrow \] \[ \Leftrightarrow 3-\alpha =3e^{-\alpha }\Leftrightarrow \alpha =3 (1-e^{-\alpha }) \] Una soluci\'{o}n de esta ecuaci\'{o}n, obviamente, es la soluci\'{o}n trivial $\alpha =0.$ Esta soluci\'{o}n nos conducir\'{\i}a a $\vartheta =0,$ es decir otra vez a la frecuencia nula que est\'{a} descartada del conjunto de frecuencias con inter\'{e}s pr\'{a}ctico. Por tanto intentaremos buscar otras soluciones de la ecuaci\'{o}n $\alpha =g(\alpha )=3\left( 1-e^{-\alpha }\right) .$ Ello puede hacerse mediante el {\bf m\'{e}todo de aproximaciones sucesivas}. Para ello, teniendo en cuenta que $N$, $T$ y $% \vartheta $ son positivas podr\'{\i}amos pensar en ubicarnos, en principio, en el espacio m\'{e}trico $([0,\infty [,d_{f})$ que es un espacio m\'{e}trico completo. Sin embargo en \'{e}l $g(\alpha )$ no es una contracci\'{o}n (basta con comprobar que $g^{\prime }(1)=3/e \approx 1.104$. Busquemos pues un intervalo en el que $g(\alpha )$ s\'{i} sea una contracci\'{o}n. Puesto que: \[ g^{\prime }(\alpha )=3e^{-\alpha } \] se verificar\'{a} que: \[ 0\log (3)\approx 1.0986 \] Por este motivo buscaremos la soluci\'{o}n de la ecuaci\'{o}n en $[\ln (3) ,\infty [.$ N\'{o}tese que al ser $g(\alpha )$ una funci\'{o}n continua mon\'{o}tona creciente y verificarse que $g(0) = 3 (1-1) = 0$ y que \[ \dis g(\ln (3))=3 (1-e^{-\ln (3)})\approx 2 >\ln (3) \] s\'{o}lo se ha perdido la soluci\'{o}n (in\'{u}til en la pr\'{a}ctica) $% \alpha =0$ al descartar el intervalo $[0, \ln (3)[$ del espacio de b\'{u}squeda de las soluciones, y que adem\'{a}s: \begin{itemize} \item[a)] s\'{o}lo habr\'{a} una soluci\'{o}n de la ecuaci\'{o}n $\alpha =g(\alpha ) $ distinta de la soluci\'{o}n nula, \item[b)] la \'{u}nica soluci\'{o}n existente pertenece a $[\ln (3), \infty [,$ \item[c)] el m\'{e}todo de aproximaciones sucesivas nos va a conducir a dicha soluci\'{o}n no nula. \end{itemize} Apliquemos pues el m\'{e}todo partiendo de $\alpha _{0}=1.1.$ Se ir\'{a}n obteniendo sucesivamente los valores siguientes: \[ \alpha _{1}=g(\alpha _{0})=3 (1-e^{-1.1})=2.001386749 \] \[ \alpha _{2}=g(\alpha _{1})=3 (1-e^{-2.001386749})=2.594556788 \] \[ \alpha _{3}=g(\alpha _{2})=3 (1-e^{-2.594556788})=2.775963098 \] \[ \alpha _{4}=g(\alpha _{3})=3 (1-e^{-2.775963098})=2.813131625 \] \[ \alpha _{5}=g(\alpha _{4})=3 (1-e^{-2.813131625})=2.819949757 \] \[ \alpha _{6}=g(\alpha _{5})=3 (1-e^{-2.819949757})=2.821173187 \] \[ \alpha _{7}=g(\alpha _{6})=3 (1-e^{-2.821173187})=2.821391836 \] \[ \alpha _{8}=g(\alpha _{7})=3 (1-e^{-2.821391836})=2.821430884 \] \[ \alpha _{9}=g(\alpha _{8})=3 (1-e^{-2.821430884})=2.821437856 \] \[ \alpha _{10}=g(\alpha _{9})=3 (1-e^{-2.821437856})=2.821439101 \] \[ \alpha _{11}=g(\alpha _{10})=3 (1-e^{-2.821439101})=2.821439324 \] \[ \alpha _{12}=g(\alpha _{11})=3 (1-e^{-2.821439324})=2.821439364 \] \[ \alpha _{13}=g(\alpha _{12})=3 (1-e^{-2.821439364})=2.821439371 \] \[ \alpha _{14}=g(\alpha _{13})=3 (1-e^{-2.821439371})=2.821439372 \] \[ \alpha _{15}=g(\alpha _{14})=3 (1-e^{-2.821439372})=2.821439372 \] no obteni\'{e}ndose diferencias de valor, con los 9 decimales que hemos utilizado en el c\'{a}lculo, para posteriores iteraciones. Por tanto la soluci\'{o}n buscada ser\'{a} $\alpha ^{*}\approx 2.821439372.$ A partir de este valor, puesto que hab\'{\i}amos denotado por $\alpha =N \frac{\vartheta }{T}$, se tendr\'{a} que la frecuencia a la que se maximiza la energ\'{\i}a est\'{a} dada por: \[ \vartheta^{*}\approx 2.821439372 \frac{T}{N} =2.821439372 \dis \frac{hT}{k}. \] \beobse N\'otese que: \begin{enumerate} \item El resultado del ejercicio anterior muestra que la relaci\'{o}n entre la frecuencia a la que se emite la m\'{a}xima energ\'{\i}a y la temperatura siempre es: \[ \frac{\vartheta ^{*}}{T}\approx \frac{2.821439372}{N}=\frac{2.821439372}{% \frac{h}{k}}=\frac{2.821439372 1.38066 10^{-23}}{6.626 10^{-34}}\approx \] \[ \approx 5.879 10^{10}s^{-1} K^{-1} \] \item La anterior es una forma de expresar la llamada ``ley del desplazamiento'' de Wien que dice que la frecuencia a la que se produce la emisi\'{o}n m\'{a}xima es directamente proporcional a la temperatura absoluta del cuerpo emisor. \item A partir de la f\'{o}rmula de Plank: \[ u(\vartheta ,T)=\frac{8\pi h}{c^{3}} \dis \frac{\vartheta ^{3}}{e^{\frac{% h \vartheta }{k T}}-1} \] se puede obtener la ecuaci\'{o}n de Stefan-Boltzmann (que hist\'{o}ricamente es anterior) seg\'{u}n la cual la potencia total radiada por unidad de superficie (a todas las frecuencias) a una determinada temperatura absoluta es directamente proporcional a la 4${{}^{a}}$\ potencia de la misma, es decir: \[ S=\sigma T^{4} \] donde $\sigma $\ es la constante de Stefan-Boltzmann. Basta para obtener esta expresi\'{o}n efectuar el proceso de integraci\'{o}n: $% \dis S=\int_{0}^{\infty }u(\vartheta ,T) d\vartheta $...... pero eso es objeto de otra disciplina. \end{enumerate} \enobse %%%%%%%%%%%%% QUITAR PARA LOS CHICOS \subsubsection{La t\'{e}cnica de sobreiteraci\'{o}n} En ocasiones la aplicaci\'{o}n del m\'{e}todo de aproximaciones sucesivas a la ecuaci\'{o}n $x=g(x)$ conducir\'{a} a un proceso que converge muy lentamente (por tener su constante de Lipschitz pr\'{o}xima a 1) o que no converge. En esas ocasiones ser\'{a} conveniente modificar la ecuaci\'{o}n equivalente convirti\'{e}ndola en otra de la forma $x=h(x)$ en la que $h(x)$ tenga mejores propiedades de cara a la convergencia del m\'{e}todo hacia la soluci\'{o}n $x^{*}$. Una estrategia que en ocasiones nos puede ayudar en este proceso consiste en modificar la ecuaci\'{o}n de la forma: \[ x=g(x)\Leftrightarrow x+\rho x=g(x)+\rho x\Leftrightarrow x=% \frac{g(x)+\rho x}{1+\rho }=h(x) \] Se dispone as\'{i} de un par\'{a}metro $\rho $ con el que intentar mejorar la velocidad de convergencia del algoritmo de aproximaciones sucesivas. Ello se podr\'{\i}a lograr, en virtud del teorema de convergencia local antes presentado, dando a $\rho $ el valor de $-g^{\prime }(x^{*})$ (cuando este sea no nulo) pues en ese caso: \[ h^{\prime }(x^{*})=\frac{g^{\prime }(x^{*})+(-g^{\prime }(x^{*}))}{% 1-g^{\prime }(x^{*})}=0 \] La dificultad de este proceso, conocido con el nombre de t\'{e}cnica de sobreiteraci\'{o}n, radica en estimar el valor de $g^{\prime }(x^{*})$ .... sin conocer $x^{*}.$ No obstante, aunque parezca incre\'{\i}ble, en ocasiones esto podr\'{a} hacerse. Como bot\'{o}n de muestra sirva el siguiente ejemplo. \bejem Determinar la soluci\'{o}n de la ecuaci\'{o}n no lineal $x^{2}-a=0$ siendo $% a\in \R$, $a>0$. \enejem Si se desea conocer la soluci\'{o}n de la ecuaci\'{o}n no lineal $x^{2}-a=0$ siendo $a$ un n\'{u}mero estr\'{\i}ctamente positivo puede procederse, en primer lugar de la siguiente forma \[ x^{2}-a=0\Leftrightarrow x x=a\Leftrightarrow x=\frac{a}{x}=g(x) \] No obstante, esta funci\'{o}n $g(x)$ nos sirve de poco para calcular la ra\'{\i}z pues si se parte de un valor $x_{0}\neq \sqrt{a}$ se tendr\'{a} que: \[ x_{1}=g(x_{0})=\frac{a}{x_{0}};\;\;\;x_{2}=g(x_{1})=\frac{a}{\frac{a}{x_{0}}}% =x_{0};\;\;\;\;x_{3}=g(x_{2})=\frac{a}{x_{0}};.... \] es decir, que la sucesi\'{o}n que nos proporciona el m\'{e}todo de aproximaciones sucesivas ser\'{a}: \[ \left\{ x_{0},\frac{a}{x_{0}},x_{0},\frac{a}{x_{0}},x_{0},\frac{a}{x_{0}}% ,.......\right\} \] que como se ve no converge hacia nada. No obstante en este caso se tendr\'{a} que: \[ g^{\prime }(x^{*})=-\frac{a}{(x^{*})^{2}} \] y como en la soluci\'{o}n buscada se verificar\'{a} que: $(x^{*})^{2}=a$ resultar\'{a} que: \[ g^{\prime }(x^{*})=-\frac{a}{a}=-1 \] Por tanto puede intentarse el m\'{e}todo de sobreiteraci\'{o}n tomando como valor $$ \rho =-g^{\prime }(x^{*})=1. $$ Con ello la ecuaci\'{o}n se transformar\'{a} en: \[ x=h(x)=\dis \frac{\frac{a}{x}+x}{1+1}=\frac{a+x^{2}}{2 x}=\frac{1}{2} (x+\frac{a}{x}) \] As\'{\i} si por ejemplo, se considera que $a=16$ el esquema anterior, partiendo de $x_{0}=1$ nos conduce a que: \[ x_{1}=h(x_{0})=\frac{17}{2}=8.5 \] \[ x_{2}=h(x_{1})=\frac{88.25}{17}=5.191176470 \] \[ x_{3}=4.136664722 \] \[ x_{4}=4.002257525 \] \[ x_{5}=4.000000637 \] \[ x_{6}=4.000000001 \] \[ x_{6}=4.000000000 \] \beobse Este procedimiento de c\'{a}lculo de ra\'{\i}ces cuadradas es atribuido a Her\'{o}n de Alejandr\'{\i}a (arquitecto e ingeniero que vivi\'{o} en la segunda mitad del siglo I) y se conoce con el nombre de regla de Her\'{o}n o regla mec\'{a}nica para el c\'{a}lculo de ra\'{\i}ces cuadradas. A pesar de llevar el nombre de Her\'{o}n, pues la regla aparece recogida por primera vez en su obra ``M\'{e}trica'', se cree que este m\'{e}todo es debido en realidad a Arqu\'{\i}medes de Siracusa (ingeniero y matem\'{a}tico del siglo III antes de Cristo). A pesar de su antig\"{u}edad, este m\'{e}todo es empleado actualmente en numerosas calculadoras cient\'{\i}ficas debido a su gran velocidad de convergencia hacia el valor de la ra\'{\i}z cuadrada de cualquier n\'{u}mero real positivo $a$. \enobse %%%%%%%%%%%% HASTA AQUI \subsection{El m\'{e}todo de Newton-Raphson} Consid\'{e}rese la ecuaci\'{o}n $f(x)=0$ en la que supongamos que $f(x)$ es una funci\'{o}n de clase $C^{2}([a,b]).$ Supongamos adem\'{a}s que la ecuaci\'{o}n anterior admite una soluci\'{o}n $x^{*}$ en el intervalo $% [a,b]. $ Para cualquier otro valor $x_{0}\in [a,b]$, denotando por $h$ al valor tal que $x^{*}=x_{0}+h,$ la expresi\'{o}n del desarrollo en serie de Taylor nos permitir\'{\i}a escribir que: \[ 0=f(x^{*})=f(x_{0}+h)=f(x_{0})+h f^{\prime }(x_{0})+\frac{h^{2}}{2}% f^{''}(x_{0}+\theta h),\qquad \theta \in [0,1]. \] Si conocido $x_{0}$ se fuese capaz de determinar $h$ resolviendo la ecuaci\'{o}n: \[ f(x_{0})+hf^{\prime }(x_{0})+\frac{h^{2}}{2}f^{''}(x_{0}+\theta h)=0 \] podr\'{i}a evaluarse $x^{*}$ como $x^{*}=x_{0}+h.$ Pero para resolver esta ecuaci\'{o}n primero deber\'{\i}amos conocer el valor de $\theta $ (lo cual no es obvio) y una vez conocido resolver una ecuaci\'{o}n, en general, no lineal pues obs\'{e}rvese que $h$ interviene en la expresi\'{o}n $% f^{''}(x_{0}+\theta h).$ Por tanto, salvo en situaciones muy particulares, no se ganar\'{\i}a gran cosa reemplazando el problema de resolver $f(x)=0$ por el de resolver \[ F(h)=f(x_{0})+h f^{\prime }(x_{0})+\frac{h^{2}}{2} f^{''}(x_{0}+\theta h)=0. \] El {\bf m\'{e}todo de Newton-Raphson} (o m\'{e}todo de linealizaci\'{o}n de Newton) se sustenta en simplificar la expresi\'{o}n anterior linealiz\'{a}ndola. Para ello considera que si se est\'{a} suficientemente cerca de la soluci\'{o}n (es decir, si $h$ es suficientemente peque\~{n}o) el t\'{e}rmino $\dis \frac{h^{2}}{2} f^{''}(x_{0}+\theta h)$ podr\'{a} despreciarse frente a los otros t\'{e}rminos de la ecuaci\'{o}n. Por ello resuelve la ecuaci\'{o}n lineal: \[ f(x_{0})+Hf^{\prime }(x_{0})=0 \] de la que se obtiene que: \[ H=-\frac{f(x_{0})}{f^{\prime }(x_{0})} \] Obviamente, al ser diferente la ecuaci\'{o}n linealizada que la proporcionada por el desarrollo de Taylor, se tendr\'{a} que $H\neq h$ y por tanto \[ x^{*}=x_{0}+h\neq x_{1}=x_{0}+H. \] De una forma intuitiva (que m\'{a}s adelante deberemos precisar cu\'{a}ndo es correcta) puede pensarse que aunque $x_{1}$ sea diferente de $x^{*}$ ser\'{a} un valor m\'{a}s pr\'{o}ximo a $x^{*}$ que $x_{0}$ pues lo hemos obtenido ``aproximando'' el valor $h$ que nos llevaba de $x_{0}$ a $x^{*}.$ Ello, al menos, ser\'{a} as\'{\i} cuando $h$ sea suficientemente peque\~{n}o, es decir cuando $x_{0}$ sea suficientemente pr\'{o}ximo a $x^{*}.$ Con ello el m\'{e}todo de Newton-Raphson propone repetir este proceso de forma recursiva hasta estar lo suficientemente cercanos a la soluci\'{o}n buscada. M\'{a}s concretamente el {\bf m\'{e}todo de Newton-Raphson} consiste en: \hspace{1cm}{\em Dado un valor} $x_{0},$ {\em generar la sucesi\'{o}n} $\dis \left\{ x_{i+1}=\dis x_{i}-\frac{f(x_{i})}{f^{\prime }(x_{i})}\right\} _{i=0}^{\infty }.$ %%%%%%%%%%%%% QUITAR PARA LOS CHICOS \beobse Un poco de historia sobre el m\'{e}todo. Esta idea para a\-pro\-xi\-mar las ra\'{i}ces de las ecuaciones tiene sus antecedentes en trabajos anteriores a Newton, debidos al matem\'{a}tico franc\'{e}s Fran\c{c}ois Vi\`{e}te que vivi\'{o} entre 1540 y 1603. El m\'{e}todo se recogi\'{o} por primera vez en la obra ``Algebra'' del matem\'{a}tico ingl\'{e}s John Wallis aparecida en 1685. No obstante el prol\'{i}fico matem\'{a}tico y f\'{\i}sico ingl\'{e}s Sir Isaac Newton la hab\'{\i}a aplicado ya a la resoluci\'{o}n de algunas ecuaciones no lineales en escritos suyos anteriores partiendo de un valor suficientemente pr\'{o}ximo de la ra\'{\i}z y calculando, en una primera aproximaci\'{o}n, el incremento que le acercaba m\'{a}s a la ra\'{\i}z, en una segunda aproximaci\'{o}n, el incremento del incremento que mejoraba la aproximaci\'{o}n anterior, en una tercera aproximaci\'{o}n el incremento del incremento del incremento, y as\'{\i} sucesivamente. As\'{\i}, Newton aplica el m\'{e}todo a la ecuaci\'{o}n \[ x^{3}-2 x-5=0\;\;\;\;\;\;\;\;(1) \] y considera como valor $x_{0}=2,$\ que supone que dista menos de la unidad de una soluci\'{o}n exacta, suponiendo entonces que una ra\'{\i}z de esta ecuaci\'{o}n es $x^{*}=(2+\delta x).$\ Sustituyendo esta expresi\'{o}n en la propia ecuaci\'{o}n obtiene: \[ \left( \delta x\right) ^{3}+6 \left( \delta x\right) ^{2}+10 (\delta x)-1=0\;\;\;\;\;\;\;\;\;(2) \] Al haber supuesto que $\delta x<1,$\ Newton desprecia los t\'{e}rminos en $% \left( \delta x\right) ^{3}$\ y en $\left( \delta x\right) ^{2}$\ aproximando $\delta x\approx 0.1.$\ Tras ello considera que $\delta x=0.1+\delta ^{2}x$\ con lo que inyectada esta expresi\'{o}n en (2) se obtiene que: \[ \left( \delta ^{2}x\right) ^{3}+6.3 \left( \delta ^{2}x\right) ^{2}+11.23 (\delta ^{2}x)+0.061=0\;\;\;\;\;\;(3) \] de donde despreciando los t\'{e}rminos en $\left( \delta ^{2}x\right) ^{3}$ y en $\left( \delta ^{2}x\right) ^{2}$ obtiene que $\delta ^{2}x\approx -0.0054$ por lo que $\delta x\approx 0.1-0.0054$. Considera entonces que $% \delta ^{2}x=-0.054+\delta ^{3}x$ y vuelve a repetir el proceso anterior, sustituyendo esta expresi\'{o}n en (3) y obteniendo una aproximaci\'{o}n de $% \delta ^{3}x.$ Procediendo de forma iterativa Newton obtiene una aproximaci\'{o}n aceptable de la ra\'{\i}z. En 1690 en una publicaci\'{o}n del matem\'{a}tico ingl\'{e}s Joseph Raphson, en la que no menciona a Newton, se describe el m\'{e}todo de una forma m\'{a}s pr\'{o}xima a c\'{o}mo se utiliza hoy en d\'{\i}a: actualizando el valor de la aproximaci\'{o}n de la ra\'{\i}z y calculando un nuevo incremento para esta actualizaci\'{o}n. Concretamente, sobre la misma ecuaci\'{o}n no lineal Raphson realizar\'{\i}a la primera iteraci\'{o}n considerando que $% x^{*}=(2+\Delta_{1}x)$ y obteniendo, al igual que Newton, $\Delta_{1}x=0.1$ por lo que llama $x_{1}=2.1$ Tras ello supone que $x^{*}=2.1+\Delta_{2}x$ y procede sustituyendo $(2.1+\Delta_{2}x)$ en la ecuaci\'{o}n (1), despreciando los t\'{e}rminos cuadr\'{a}ticos y c\'{u}bicos y estimando que $% \Delta _{2}x=-0.0054$ y continuando as\'{\i} el proceso. Como puede apreciarse ambas formas de proceder son equivalentes, pero, operacionalmente, es m\'{a}s sencilla la forma en que Raphson modifica la t\'{e}cnica propuesta por Newton. Pero tambi\'{e}n puede observarse que en ambas formas de proceder no aparece expl\'{\i}citamente la primera derivada de la funci\'{o}n que define la ecuaci\'{o}n. T\'{e}ngase en cuenta que es por esta misma \'{e}poca cuando el propio Newton en Inglaterra y el gran matem\'{a}tico Gottfried Wilhelm Leibniz en el continente europeo est\'{a}n asentando las bases del c\'{a}lculo in\-fi\-ni\-te\-si\-mal. Adem\'{a}s, por supuesto que la forma de obtener el m\'{e}todo tanto por Newton como por Raphson fue m\'{a}s heur\'{\i}stica (pues hasta el a\~{n}o 1715 en la publicaci\'{o}n del matem\'{a}tico ingl\'{e}s Brook Taylor ``Methodus incrementorum directa e inversa'' no se present\'{o} el desarrollo en serie que lleva su nombre). Hubo que esperar m\'{a}s de un siglo, hasta 1818, para que el matem\'{a}tico franc\'{e}s Joseph Fourier comenzase el an\'{a}lisis de las condiciones de convergencia del m\'{e}todo y acabase de formularlo en la forma en que es utilizado hoy en d\'{\i}a. \enobse %%%%%%%%%%% HASTA AQUI Sobre este m\'{e}todo, en primer lugar, puede observarse que si denotamos por: \[ g(x)=x-\frac{f(x)}{f^{\prime }(x)} \] estamos en presencia de un caso particular del m\'{e}todo de aproximaciones sucesivas antes contemplado. En otros t\'{e}rminos, se tienen las siguientes propiedades: \beprop Si la funci\'{o}n $g(x)=\dis x-\frac{f(x)}{f^{\prime }(x)}$ es una contracci\'{o}n definida en $[a,b]$ la sucesi\'{o}n dada por \[ \dis \left\{ x_{i+1}=x_{i}-\frac{f(x_{i})}{f^{\prime }(x_{i})}\right\} _{i=0}^{\infty } \] obtenida a partir de cualquier punto $x_{0}\in [a,b]$ converge hacia la \'{u}nica soluci\'{o}n de la ecuaci\'{o}n $f(x)=0$ en $[a,b].$ \enprop \underline{Demostraci\'{o}n:} Es un caso particular de los teoremas de convergencia del m\'{e}todo de a\-pro\-xi\-ma\-cio\-nes sucesivas. \hspace{10cm}c.q.d. \beprop Si la funci\'{o}n $g(x)=x-\frac{f(x)}{f^{\prime }(x)}$ definida en $[a,b]$ toma va\-lo\-res en $[a,b],$ es de clase $C^{1}([a,b])$ y adem\'{a}s: \[ |g^{\prime }(x)|=\left| \frac{f^{''}(x) f(x)}{(f^{\prime }(x))^{2}}\right| <1\;\;\;\;\;\;\;\;\;\forall x\in [a,b] \] entonces la sucesi\'{o}n dada por \[ \dis \left\{ x_{i+1}=x_{i}-\frac{f(x_{i})}{f^{\prime }(x_{i})}\right\} _{i=0}^{\infty } \] obtenida a partir de cualquier punto $x_{0}\in [a,b]$ converge hacia la \'{u}nica soluci\'{o}n de la ecuaci\'{o}n $f(x)=0$ en $[a,b].$ \enprop \underline{Demostraci\'{o}n:} Es un caso particular del teorema 1.8. de convergencia del m\'{e}todo de aproximaciones sucesivas. \hspace{10cm}c.q.d. \beobse Obs\'ervese lo siguiente: \begin{enumerate} \item Que la aplicaci\'{o}n del m\'{e}todo de Newton-Raphson exige que los va\-lo\-res de $f^{\prime }(x_{i})$\ no se anulen. \item Una interpretaci\'{o}n gr\'{a}fica del m\'{e}todo puede obtenerse teniendo en cuenta que $f^{\prime }(x_{i})$\ geom\'{e}tricamente representa la tangente trigonom\'{e}trica de la recta tangente a la gr\'{a}fica de $f(x) $ en el punto $(x_{i},f(x_{i}))$ por lo que $\dis \left| f(x_{i})/ f^{\prime }(x_{i})\right| $ ser\'{a} la distancia existente entre $x_{i}$\ y el punto de corte de la recta tangente a $f(x)$ en $(x_{i},f(x_{i}))$ con el eje de abscisas. Es decir que las primeras iteraciones del proceso se pueden representar de la forma en que se recoge en la figura siguiente: \end{enumerate} \enobse %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \begin{figure} \centering \includegraphics[width=0.6\textwidth]{fig42.eps} %\caption{} %\label{figura2} \end{figure} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%5 Al igual que se hizo con el m\'{e}todo de aproximaciones sucesivas, las condiciones que garantizan la convergencia global del m\'{e}todo pueden ser sustituidas por otras que garantizan su convergencia local (esto es si el punto $x_{0}$ con el que se inicializa el m\'{e}todo es suficientemente cercano a la soluci\'{o}n buscada). Con ello se pueden rebajar las ``exigencias'' sobre la funci\'{o}n que garanticen el co\-rrec\-to funcionamiento del m\'{e}todo. En concreto es de aplicaci\'{o}n a este m\'{e}todo el siguiente teorema: \beteor Si $f\in C^{2}[a,b]$ y $x^{*}$ es una soluci\'{o}n de la ecuaci\'{o}n $% f(x)=0 $ en la que $f^{\prime }(x^{*})\neq 0$ entonces existe un valor $% \delta >0$ tal que la sucesi\'{o}n $\left\{ x_{i+1}=x_{i}-\frac{f(x_{i})}{% f^{\prime }(x_{i})}\right\} _{i=0}^{\infty }$ generada a partir de cualquier punto $x_{0}\in [x^{*}-\delta ,x^{*}+\delta ]$ converge hacia $x^{*}.$ \enteor \underline{Demostraci\'{o}n:} Por ser $f^{\prime }(x)$ continua en $x^{*}$ existir\'{a} un intervalo $[x^{*}-\delta _{1},x^{*}+\delta _{1}]$ en el que $% f(x)\neq 0$, $\forall \,x\in [x^{*}-\delta _{1},x^{*}+\delta _{1}].$ Por tanto la aplicaci\'{o}n: \[ g(x)=x-\frac{f(x)}{f^{\prime }(x)} \] tambi\'{e}n estar\'{a} definida y ser\'{a} continua en $[x^{*}-\delta _{1},x^{*}+\delta _{1}]$ y verificar\'{a} que $x^{*}=g(x^{*}).$ Adem\'{a}s como: \[ g^{\prime }(x)=\frac{f(x) f^{''}(x)}{(f^{\prime }(x))^{2}} \] y se ha supuesto que $f(x)\in C^{2}([a,b])$ resultar\'{a} que $g(x)\in C^{1}([x^{*}-\delta _{1},x^{*}+\delta _{1}]).$ Y como $f(x^{*})=0$ se tendr\'{a} que: \[ g^{\prime }(x^{*})=\frac{f(x^{*}) f^{''}(x^{*})}{(f^{\prime }(x^{*}))^{2}}% =0 \] Luego se tiene una aplicaci\'{o}n $g(x)$ de clase $C^{1}([x^{*}-\delta _{1},x^{*}+\delta _{1}])$ y tal que $|g^{\prime }(x^{*})|=0<1.$ Por tanto, al ser $g^{\prime }(x)$ continua en $x^{*}$ para cualquier valor $k<1$ existir\'{a} un valor $0<\delta \leq \delta _{1}$ tal que: \[ |g^{\prime }(x)|\leq k<1 ,\qquad \forall \, x\in [x^{*}-\delta ,x^{*}+\delta ] \] Adem\'{a}s se verificar\'{a} que $\forall x\in [x^{*}-\delta ,x^{*}+\delta ]$ tal que $g(x)\in [x^{*}-\delta ,x^{*}+\delta ]$. En efecto, si $x\in [x^{*}-\delta ,x^{*}+\delta ]$ se tendr\'{a} que $|x^{*}-x|\leq \delta $ y por el teorema de los incrementos finitos se tendr\'{a} que $\exists z\in [x^{*}-\delta ,x^{*}+\delta ]$: \[ \left| g(x)-x^{*}\right| =\left| g(x)-g(x^{*})\right| =|g(z)| \left| x-x^{*}\right| \leq k \delta <\delta \] En resumen $g(x)$ es una contracci\'{o}n definida sobre el espacio m\'{e}trico completo $([x^{*}-\delta ,x^{*}+\delta ],d_{f})$ y por tanto admitir\'{a} un \'{u}nico punto fijo $x^{*}$ que es el l\'{\i}mite de la sucesi\'{o}n $\left\{ x_{i+1}=g(x_{i})\right\} _{i=0}^{\infty }$ sea cual sea el punto $x_{0}\in [x^{*}-\delta ,x^{*}+\delta ]$ con el que se inicialice. \hspace{10cm}c.q.d. \es El teorema anterior puede ser completado estimando cotas de la distancia a la soluci\'{o}n de la aproximaci\'{o}n obtenida en una iteraci\'{o}n respecto a la obtenida en la iteraci\'{o}n precedente. En efecto, esto se hace en el siguiente teorema: \beteor Dada la ecuaci\'{o}n $f(x)=0$ y suponiendo que $f(x)$ es una funci\'{o}n que verifica las siguientes hip\'{o}tesis: \begin{itemize} \item[a)] est\'{a} definida en un intervalo $[a,b]$ en el que existe una soluci\'{o}n $x^{*}$ de la ecuaci\'{o}n \item[b)] $f^{\prime }(x)$ es una aplicaci\'{o}n lipschitciana de raz\'{o}n $k$ en $[a,b]$ \item[c)] $\exists \beta >0$ tal que $|f^{\prime }(x)|>\beta $ \ \ \ \ \ $% \forall x\in [a,b]$ \end{itemize} entonces existe alg\'{u}n valor $\delta $ tal que si se considera $x_{0}\in [x^{*}-\delta ,x^{*}+\delta ,]$ la sucesi\'{o}n \[ \dis \left\{ x_{i+1}=x_{i}-\frac{f(x_{i})}{f^{\prime }(x_{i})}\right\} _{i=0}^{\infty } \] converge hacia $x^{*}$ y adem\'{a}s se verifica que: \[ |x_{i+1}-x^{*}|\leq \frac{k}{2 \beta } |x_{i}-x^{*}| \] \enteor \underline{Demostraci\'{o}n:} Demostremos en primer lugar la \'{u}ltima desigualdad del teorema. Para ello se sabe que: \[ x_{i+1}-x^{*}=x_{i}-\frac{f(x_{i})}{f^{\prime }(x_{i)}}-x^{*}=x_{i}-x^{*}-% \frac{f(x_{i})-f(x^{*})}{f^{\prime }(x_{i)}}= \] \[ =\frac{1}{f^{\prime }(x_{i})}.\left[ f(x^{*})-f(x_{i})-f^{\prime }(x_{i}) (x^{*}-x_{i})\right] \] Como por otra parte se tendr\'{a} que: \[ f(x^{*})-f(x_{i})=\int_{x_{i}}^{x^{*}}f^{\prime }(x)dx \] y por tanto: \[ f(x^{*})-f(x_{i})-f^{\prime }(x_{i}) (x^{*}-x_{i})=\int_{x_{i}}^{x^{*}}(f^{\prime }(x)-f^{\prime }(x_{i}))dx \] se obtiene que: \[ \left| f(x^{*})-f(x_{i})-f^{\prime }(x_{i}) (x^{*}-x_{i})\right| =\left| \int_{x_{i}}^{x^{*}}(f^{\prime }(x)-f^{\prime }(x_{i}))dx\right| \leq \] \[ \leq \int_{x_{i}}^{x^{*}}\left| f^{\prime }(x)-f^{\prime }(x_{i})\right| .dx\leq k \int_{x_{i}}^{x^{*}}\left| x-x_{i}\right| dx\leq \frac{k}{2} \left| x-x_{i}\right| ^{2} \] por lo que: \[ \left| x_{i+1}-x^{*}\right| \leq \frac{k}{2 \beta } \left| x-x_{i}\right| ^{2} \] %\hspace{14cm}c.q.d. Una vez demostrada la desigualdad anterior la convergencia de la sucesi\'{o}n se garantizar\'{\i}a logrando que fuese una sucesi\'{o}n de Cauchy y que estuvi\'{e}ramos trabajando en un espacio m\'{e}trico completo. Para ello basta con tomar $\delta _{1}=\min \{|x^{*}-a|,|x^{*}-b|\}$ y considerar \[ \dis \delta =\min\dis \left\{ \delta _{1},\theta \left( \frac{2 \beta }{k}\right) \right\} \] donde $\theta $ es un valor de $]0,1[$ elegido de tal forma que $\theta \left( \frac{2 \beta }{k}\right) <1.$ Con ello la distancia entre $x_{0}\in [x^{*}-\delta ,x^{*}+\delta ]$ y $x^{*}$ ser\'a inferior o igual a $\theta \left( \frac{2 \beta }{k}\right) <1$, la distancia entre $% x_{1}$ y $x^{*}$ verificar\'{a} que: \[ \left| x_{1}-x^{*}\right| \leq \frac{k}{2 \beta } \left| x-x_{0}\right| ^{2}\leq \theta ^{2} \frac{2\beta }{k}\leq \theta =\theta \] y por recurrencia se comprueba que la distancia a la sucesi\'{o}n va decreciendo de forma tal que bastar\'{a} con considerar un \'{\i}ndice lo suficientemente grande para hacerla, a partir de \'{e}l, tan peque\~{n}a como se desee. Por tanto, al ser ($[x^{*}-\delta ,x^{*}+\delta ],d_{f})$ un completo si $x_{0}$ pertenece a este intervalo quedar\'{a} garantizada la convergencia del m\'{e}todo de Newton-Raphson. \hspace{10cm}c.q.d. \beobse Obs\'{e}rvese lo siguiente: \begin{enumerate} \item Que la desigualdad del teorema anterior \[ |x_{i+1}-x^{*}|\leq \frac{k}{2 \beta } |x_{i}-x^{*}| \] no garantiza por s\'{\i} sola la convergencia del m\'{e}todo pues simplemente establece una cota del valor de $|x_{i+1}-x^{*}|.$ Es la pertenencia del valor inicial $x_{0}$ a un intervalo suficientemente peque\~{n}o en torno a la ra\'{\i}z la que garantiza el \'{e}xito del proceso. \item En este sentido es interesante reflexionar sobre el significado de la relaci\'{o}n $k/2\beta $. En ella $k$ es la constante de Lipschitz de $% f^{\prime }(x).$ Pero multiplicando la ecuaci\'{o}n $f(x)=0$ por un par\'{a}metro $\alpha \neq 0$ se obtiene una ecuaci\'{o}n equivalente $\alpha f(x)=F(x)=0$ en la que la constante de Lipschitz de la funci\'{o}n $% F^{\prime }(x)$se ve afectada por el par\'{a}metro $\alpha $. Obviamente tambi\'{e}n se ver\'{\i}a afectado por este par\'{a}metro el valor de $\beta $ (cota inferior del valor absoluto que toma $f^{\prime }(x)$\ en el intervalo de trabajo). Por ello la relaci\'{o}n $k /\beta $ es un l\'{\i}mite superior de la ``no linealidad'' de $f(x)$ y la desigualdad del teorema anterior nos indica que cuanto menor sea este \'{\i}ndice de no linealidad m\'{a}s r\'{a}pida ser\'{a} la convergencia hacia la soluci\'{o}n de la ecuaci\'{o}n. En el caso extremo de que $f(x)$ sea lineal (una recta de ecuaci\'{o}n $k x+c$) la constante de Lipschitz de $f^{\prime }(x)$ ser\'{a} $0$ y la cota inferior de la derivada ser\'{a} $k$ por lo que la convergencia se alcanzar\'{a} en una iteraci\'{o}n del m\'{e}todo. \end{enumerate} \enobse Ilustremos el proceso anterior con un ejemplo que si bien no es propio de la ingenier\'{\i}a qu\'{\i}mica es real como la vida misma: \bejem El dinero necesario para pagar la cuota correspondiente a un cr\'{e}dito hipotecario a inter\'{e}s fijo se suele estimar mediante la denominada ``ecuaci\'{o}n de la anualidad ordinaria'': \[ Q=\frac{A}{i} [1-(1+i)^{-n}] \] en donde $Q$ es la cantidad (en euros) pedida en pr\'{e}stamo, $A$ es la cuota (en euros) que debe pagar el beneficiario del pr\'{e}stamo, $i$ es la tasa de inter\'{e}s (en tanto por 1) fijado por la entidad bancaria que concede el pr\'{e}stamo y $n$ es el n\'{u}mero de periodos durante los cuales se realizan pagos de la cuota (meses si se paga mensualmente, trimestres si se paga trimestralmente, semestres si se paga semestralmente o a\~{n}os si se paga anualmente). Una pareja que desea comenzar una vida en com\'{u}n se plantea adquirir una vivienda y para ello saben que necesitan pedir un pr\'{e}stamo de 150000 euros a pagar semestralmente durante un plazo que ellos desean que sea de 10 a\~{n}os. Sabiendo que para atender este pago pueden destinar una cantidad m\'{a}xima de 600 euros mensuales, calc\'{u}lese cual es el tipo m\'{a}ximo de inter\'{e}s al que pueden negociar su pr\'{e}stamo con las entidades bancarias. Puesto que el pago es semestral, en 10 a\~{n}os realizar\'{a}n un total de 20 cuotas. Adem\'{a}s dado que pueden pagar 600 euros al mes, cada semestre podr\'{a}n afrontar el pago de 3600 euros. Ello hace que la ecuaci\'{o}n de la anualidad ordinaria quede: \[ 150000=\frac{3600}{i} [1-(1+i)^{-20}] \] o bien \[ f(i)=150000-\frac{3600}{i} [1-(1+i)^{-20}]=0 \] Se tiene entonces que: \[ f^{\prime }(i)=\frac{3600}{i} \left[ \frac{1}{i}\left( 1-(1+i)^{-20}\right) -20 (1+i)^{-21}\right] \] por lo que el m\'{e}todo de Newton nos conducir\'{i}a al esquema de c\'{a}lculo: \[ i_{j+1}=i_{j}-\frac{150000-\frac{3600}{i_{j}} [1-(1+i_{j})^{-20}]}{% \frac{3600}{i_{j}} \left[ \frac{1}{i_{j}}\left( 1-(1+i_{j})^{-20}\right) -20 (1+i_{j})^{-21}\right] } \] que, partiendo de $i_{0}=0.03$ nos proporcionar\'{a} la siguiente sucesi\'{o}n de valores: $$ i_{1}=-0.1647..,\qquad i_{2}=-0.1212...,\qquad i_{3}=-0.0852...,\qquad i_{4}=-0.0659.., $$ $$ i_{5}=-0.0617...,\qquad i_{6}=-0.0616...,\qquad i_{7}=-0.0616... $$ Como resultado de lo anterior se dan cuenta que dif\'{\i}cilmente podr\'{a}n encontrar la vivienda que desean pues parece razonable pensar que ning\'{u}n banco o caja de ahorros les conceder\'{a} un pr\'{e}stamo a un inter\'{e}s semestral negativo del $-6.16 \%$. Por ello tras planear dejar de ver a sus respectivas amistades y reinvertir el dinero que gastan en copas para adquirir la casa de sus sue\~{n}os aumentan la cantidad que mensualmente pueden dedicar a amortizar el cr\'{e}dito hasta 5400 euros semestrales y asumen endeudarse durante 15 a\~{n}os en lugar de 10. Con ello el m\'{e}todo de Newton-Raphson se convierte ahora en el esquema iterativo: \[ i_{j+1}=i_{j}-\frac{150000-\frac{5400}{i_{j}} [1-(1+i_{j})^{-30}]}{% \frac{5400}{i_{j}} \left[ \frac{1}{i_{j}}\left( 1-(1+i_{j})^{-30}\right) -30 (1+i_{j})^{-31}\right] } \] y les proporciona la siguiente sucesi\'{o}n: \[ i_{0}=0.03,\quad i_{1}=-0.0022..,\quad i_{2}=0.0044...,\quad i_{3}=0.050..., \quad i_{4}=0.0050... \] Tras innumerables gestiones, la pareja en cuesti\'{o}n no encuentra ninguna entidad bancaria que les conceda el pr\'{e}stamo de 150000 euros al 0.5\% de inter\'{e}s semestral. Por ello, haciendo de tripas coraz\'{o}n, deciden endeudarse durante 20 a\~{n}os en lugar de 15 pero pagando la misma cantidad de 5400 euros semestrales pues (al ser un miembro de la pareja profesor asociado de tipo 1 en la Universidad Rey Juan Carlos y el otro administrativo de la escala C en un Organismo Oficial) les es imposible pagar m\'{a}s. Con ello el esquema iterativo se convierte en: \[ i_{j+1}=i_{j}-\frac{150000-\frac{5400}{i_{j}} [1-(1+i_{j})^{-40}]}{% \frac{5400}{i_{j}} \left[ \frac{1}{i_{j}}\left( 1-(1+i_{j})^{-40}\right) -40 (1+i_{j})^{-41}\right] } \] y les conduce a que: $i_{0}=0.03,$ $i_{1}=0.0175...,$ $i_{2}=0.0190...,$ $% i_{3}=0.0191...,$ $i_{4}=0.0191...$ Desmoralizados al seguir sin encontrar entidad bancaria alguna que les conceda el pr\'{e}stamo al inter\'{e}s del $1^{\prime}91\%$ semestral, la pareja toma la decisi\'{o}n de renunciar a su casa ideal y busca otra (m\'{a}s alejada de la zona que les gusta, sin buenas comunicaciones, m\'{a}s antigua, m\'{a}s peque\~{n}a y constru\'{\i}da con materiales de peor calidad) para la que s\'{o}lo necesitan un pr\'{e}stamo de 100000 euros y mantienen las dem\'{a}s condiciones anteriores: pago de 5400 euros semestrales y 20 a\~{n}os de ``condena''. El esquema de Newton-Raphson en este caso les lleva a: \[ i_{j+1}=i_{j}-\frac{100000-\frac{5400}{i_{j}} [1-(1+i_{j})^{-40}]}{% \frac{5400}{i_{j}} \left[ \frac{1}{i_{j}}\left( 1-(1+i_{j})^{-40}\right) -40 (1+i_{j})^{-41}\right] } \] luego $i_{0}=0.03,$ $i_{1}=0.0423..,$ $i_{2}=0.0444...,$ $i_{3}=0.0445...,$ $% i_{4}=0.0445..,$ Como finalmente ya encuentran una entidad que (tras duras negociaciones y previo a\-va\-la\-mien\-to de fiadores solventes) les otorga el pr\'{e}stamo al inter\'{e}s del $4^{\prime}45\%$ la pareja puede comenzar una feliz vida en pareja en la que durante 20 a\~{n}os renunciar\'{a}n a sus amigos (tranquilos que ellos tambi\'{e}n se pringar\'{a}n) sin dinero para nada que no sea la supervivencia m\'{a}s elemental y, por supuesto, pagar la vivienda, y residiendo en una casa que no es la que les gusta. \enejem \beobse T\'engase en cuenta lo siguiente: \begin{enumerate} \item Esperamos que el lector que haya seguido el ejemplo anterior no eche la culpa de la situaci\'{o}n a Sir Isaac Newton %(matem\'{a}tico y f\'{i}sico ingles de finales del siglo XVII y comienzos del XVIII), que aunque algo tuvo que ver con la banca no es el que fija los sueldos ni los tipos de inter\'{e}s bancario, ni al matem\'{a}tico ingl\'{e}s contempor\'{a}neo de Newton, Joseph Raphson. Adem\'{a}s, para tranquilidad del lector, hemos de informarle que en la pareja del ejemplo uno de ellos, el ad\-mi\-nis\-tra\-ti\-vo del Organismo Oficial (pues el otro, aunque cobraba poco, se encontraba a gusto en una Universidad de calidad), al poco tiempo, sali\'{o} elegido concejal del ayuntamiento en el pueblo al que fueron a vivir y de all\'{\i} salt\'{o} al Consejo de Ad\-mi\-nis\-tra\-ci\'{o}n de Telef\'{o}nica en el que, aparte de olvidar el m\'{e}todo de Newton-Raphson, obtuvo ping\"{u}es beneficios comprando lo que se llama algo as\'{\i} como ``stock options''. \item Hablando m\'{a}s en serio, obs\'{e}rvese que en el primer caso del ejemplo anterior, cuando la amortizaci\'{o}n del cr\'{e}dito era de 3600 euros y el plazo de pago 20 semestralidades el dinero total que se pagaba es de 72000 euros que no cubre el pr\'{e}stamo solicitado (150000 euros).\ Por ello no es extra\~{n}o que el inter\'{e}s resultante sea negativo aun cuando ello no tenga sentido en la realidad.\ Pero es que tampoco lo tiene que en un pr\'{e}stamo se devuelva menos dinero del recibido. \item Tambi\'{e}n se puede observar utilizando el ejemplo anterior que la convergencia del m\'{e}todo depende de la ``cercan\'{\i}a'' del punto de partida a la soluci\'{o}n. En efecto si en el \'{u}ltimo de los supuestos considerados (pr\'{e}stamo de 100000 euros, amortizaci\'{o}n semestral de 5400 euros y 40 pagos semestrales) se hubiese partido de un inter\'{e}s inicial del 300\% (es decir $i_{0}=3$ ) la sucesi\'{o}n obtenida (y los valores de $f(i_{j})$ ) resultan ser: $i_{1}=-160.66666..$ $% (f(i_{1})=1.00034 10^{6}$, $f^{\prime }(i_{1})=0.20919..)$, $% i_{1}=-478.35425..$ $(f(i_{1})=1.00000 10^{6},$ $f^{\prime }(i_{1})=0.2359 10^{-7}),$ ....valores que no convergen hacia nada. \end{enumerate} \enobse \beobse Si se quiere encontrar el valor de la ra\'{\i}z cuadrada de un n\'{u}mero $% a>0 $ puede buscarse como la soluci\'{o}n de la ecuaci\'{o}n no lineal $% f(x)=x^{2}-a=0.$ Para ello el m\'{e}todo de Newton-Raphson nos conduce al esquema: \[ x_{i+1}=x_{i}-\frac{x_{i}^{2}-a}{2 x_{i}}=\frac{1}{2} \left( x_{i}+% \frac{a}{x_{i}}\right) \] recuper\'{a}ndose as\'{\i} el %conocida con el nombre de m\'{e}todo de Her\'{o}n (o regla mec\'{a}nica) con el que ilustr\'{a}bamos la t\'{e}cnica de sobreiteraci\'{o}n. \enobse En ocasiones, para funciones $f(x)$ que satisfagan alguna hip\'{o}tesis adicional, pueden rebajarse las condiciones que aseguran la convergencia del m\'{e}todo de Newton Raphson. Un ejemplo de ello es el siguiente teorema: \beteor Si $f(x)\in C^{2}([a,b])$, es creciente y convexa en $[a,b]$ y admite alguna ra\'{i}z en $[a,b],$ entonces la sucesi\'{o}n $\dis \left\{ x_{i+1}=x_{i}-\frac{f(x_{i})}{f^{\prime } (x_{i})}% \right\}_{i=0}^{\infty }$ generada a partir de cualquier valor $x_{0}\in [a,b],$ converge hacia la \'{u}nica soluci\'{o}n de la ecuaci\'{o}n $f(x)=0$ en $[a,b].$ \enteor \underline{Demostraci\'{o}n:} La unicidad de la soluci\'{o}n de $f(x)$ $=0$ es evidente por ser $f(x)$ continua y creciente en $[a,b].$ Adem\'{a}s por ser $f(x)$ convexa se verificar\'{a} que $f^{''}(x)>0$, $\forall \,x\in [a,b].$ Y por ser creciente se verificar\'{a} que $f^{\prime }(x)>0$, $\forall x\in [a,b].$ Denotemos por $h_{i}=x_{i}-x^{*}.$ Se tendr\'{a} que: \[ h_{i+1}=x_{i+1}-x^{*}=x_{i}-x^{*}-\frac{f(x_{i})}{f^{\prime }(x_{i})}=\frac{% h_{i} f^{\prime }(x_{i})-f(x_{i})}{f^{\prime }(x_{i})} \] Como por otra parte, desarrollando en serie de Taylor se tiene que existe un punto $\xi _{i}\in [a,b]$ para el que: \[ 0=f(x^{*})=f(x_{i}-h_{i})=f(x_{i})-h_{i} f^{\prime }(x_{i})+\frac{1}{2}% h_{i}^{2} f^{''}(\xi _{i}) \] resultar\'{a} que: \[ h_{i} f^{\prime }(x_{i})-f(x_{i})=\frac{1}{2} h_{i}^{2} f^{''}(\xi _{i}) \] Entrando con esta expresi\'{o}n en la que nos proporcionaba $h_{i+1}$ se obtiene: \[ h_{i+1}=\frac{h_{i} f^{\prime }(x_{i})-f(x_{i})}{f^{\prime }(x_{i})}=% \frac{1}{2} \frac{f^{''}(\xi _{i})}{f^{\prime }(x_{i})} h_{i}^{2}>0 \] Lo anterior nos indica que $x_{i+1}$ siempre ser\'{a} mayor que $x^{*}$. Adem\'{a}s, por ser $f(x)$ creciente, $f(x_{i+1})>f(x^{*})=0.$ Luego las sucesiones $\left\{ x_{i}\right\} _{i=1}^{\infty }$ y $\left\{ f(x_{i})\right\} _{i=1}^{\infty }$ son sucesiones acotadas in\-fe\-rior\-mente por $x^{*}$ y por $0$ respectivamente. Por otra parte se tiene que: \[ h_{i+1}=\frac{h_{i} f^{\prime }(x_{i})-f(x_{i})}{f^{\prime }(x_{i})}% =h_{i}-\frac{f(x_{i})}{f^{\prime }(x_{i})}x^{*}$ para todo $i>0)$. Ello quiere decir que su l\'{\i}mite ser\'{a} $0$ y por tanto el l\'{\i}mite de $\left\{ x_{i}\right\} _{i=1}^{\infty }$ ser\'{a} $x^{*}.$ \hspace{10cm}c.q.d. \beobse Resultados similares al anterior podr\'{i}an obtenerse si $f(x),$ adem\'{a}s de ser de clase $C^{2}([a,b])$ fuese convexa decreciente, o c\'{o}ncava creciente o c\'{o}ncava decreciente. Dejamos al lector la demostraci\'{o}n de los mismos.\enobse En cuanto a la forma de detener el proceso iterativo, cuando $g(x)$ $=x-% \dis \frac{f(x)}{f^{\prime }(x)}$ sea una contracci\'{o}n puede seguirse la misma estrategia que en el m\'{e}todo de aproximaciones sucesivas, es decir que cuando $|x_{i}-x_{i-1}|$ sea inferior a un cierto $\varepsilon $ puede considerarse que $x_{i}$ es una buena aproximaci\'{o}n de la soluci\'{o}n $% x^{*}$. Pero un c\'{o}digo inform\'{a}tico que recoja el m\'{e}todo de Newton-Raphson deber\'{\i}a ser aplicable a situaciones en las que $g(x)$ no es una contracci\'{o}n y detectar por s\'{\i} solo si se encuentra una soluci\'{o}n de la ecuaci\'{o}n o no. \textquestiondown C\'{o}mo saber en esos casos que se est\'{a} cerca de la soluci\'{o}n buscada?. Obs\'{e}rvese por ejemplo que si $f^{\prime }(x_{i})$ toma un valor elevado el valor de $% |x_{i+1}-x_{i}|$ puede hacerse muy peque\~{n}o sin necesidad de que $% f(x_{i}) $ sea pr\'{o}ximo a $0.$ Eso nos llevar\'{\i}a a que un criterio de detenci\'{o}n del proceso iterativo ser\'{\i}a que $|f(x_{i+1})|<\delta $ donde $\delta $ es un par\'{a}metro fijado de antemano y suficientemente peque\~{n}o. Lamentablemente este criterio tampoco es fiable pues puede darse el caso de funciones en las que $f(x_{i+1})$ sea muy peque\~{n}o est\'{a}ndose muy alejados de la soluci\'{o}n. Por ejemplo, si se considera la funci\'{o}n $f(x)=xe^{-x}$ y se quiere encontrar una soluci\'{o}n no negativa de la ecuaci\'{o}n $f(x)=0,$ la \'{u}nica soluci\'{o}n es $x^{*}=0$ pero para valores de $x_{i}=10^{i}$ el valor de $f(x_{i})$ se hace tan peque\~{n}o como se desee con tal de tomar $i$ lo suficientemente elevado.% %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \begin{figure} \centering \includegraphics[width=0.6\textwidth]{fig43.eps} %\caption{} %\label{figura3} \end{figure} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%5 Puede entonces pensarse en que cuando las derivadas de la funci\'{o}n tengan valor absoluto elevado los valores de $|x_{i+1}-x_{i}|$ ser\'{a}n peque\~{n}os pero el criterio de que $|f(x_{i+1})|<\delta $ nos servir\'{a} para saber si se est\'{a} cerca o lejos de la soluci\'{o}n buscada en tanto que cuando $|f(x_{i+1})|<\delta $ ser\'{a} el analizar si $|x_{i+1}-x_{i}|<\varepsilon $ lo que nos permitir\'{a} discernir si estamos cerca o no de la soluci\'{o}n buscada. Lamentablemente tampoco este criterio cubre todas las situaciones que puedan darse pues puede haber situaciones en las que la sucesi\'{o}n se acumule en torno a un m\'{i}nimo suficientemente pr\'{o}ximo a $0$ pero lejano de la soluci\'{o}n. Por ejemplo, si la gr\'{a}fica de una funci\'{o}n fuera como la de la figura, en torno a $x = 6$ se puede producir una acumulaci\'{o}n de valores que nos conducir\'{a}n hacia el m\'{\i}nimo de la funci\'{o}n en lugar de hacia la soluci\'{o}n $x^{*}=0.$ %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \begin{figure} \centering \includegraphics[width=0.6\textwidth]{fig44.eps} %\caption{} %\label{figura4} \end{figure} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% N\'{o}tese que en este caso la derivada de $f(x)$ se anula en alg\'{u}n punto por lo que no se verifican las hip\'{o}tesis que aseguran la convergencia del proceso. En tal caso proceder\'{\i}a cambiar de punto de arranque del proceso para ubicarnos en una zona en la que s\'{\i} est\'{e} garantizada la convergencia. Aunque existen test de control de la cercan\'{\i}a a la soluci\'{o}n basados en la consideraci\'{o}n de los valores de $|x_{i+1}-x_{i}|$ y de los de $f$ y sus derivadas en $x_{i+1},$ cambiando de punto de arranque del proceso iterativo cuando el m\'{e}todo se ``atasca'' en torno a alg\'{u}n punto que no es ra\'{\i}z, nosotros nos limitaremos en estos apuntes a considerar como control de cercan\'{\i}a a la soluci\'{o}n el que $|x_{i+1}-x_{i}|<% \varepsilon $ y que $|f(x_{i+1})|<\delta $ . Esta estrategia ser\'{a} suficiente para los casos en que est\'{e} asegurada la convergencia del m\'{e}todo y ser\'{a} acompa\~{n}ada con la limitaci\'{o}n del n\'{u}mero m\'{a}ximo de iteraciones que se permite realizar para asegurar la finalizaci\'{o}n del algoritmo en los casos en que no haya convergencia. Ello nos permite escribir un algoritmo recogiendo el m\'{e}todo de Newton-Raphson como el que sigue: \es \centerline{ {\bf Algoritmo del m\'{e}todo de Newton-Raphson:}} \es Dada la ecuaci\'{o}n $f(x)=0$, los indicadores de precisi\'{o}n $\varepsilon $ y $\delta $, un valor m\'{a}ximo del n\'{u}mero de iteraciones que se permiten realizar $(maxiter)$ y un punto $x_{0}$ con el que inicializar el proceso, $tolx\leftarrow 2 \varepsilon $ $tolf\leftarrow 2 \delta $ $iteraci\acute{o}n\leftarrow 0$ \textbf{Mientras} \textbf{(} $(iteraci\acute{o}n\varepsilon )$ \textbf{o} $(tolf>\delta )$ \textbf{)}, \textbf{hacer:} \hspace{2cm}\textbf{Si} $(f^{\prime }(x_{0})=0)$ \textbf{entonces:} \hspace{3cm}\textbf{Escribir} mensaje de error (derivada nula) y \hspace{3cm}finalizar el proceso \hspace{2cm}\textbf{si no:} \[ x_{1}\leftarrow x_{0}-\frac{f(x_{0})}{f^{\prime }(x_{0})} \] \[ tolx\leftarrow \left| x_{1}-x_{0}\right| \] \[ tolf\leftarrow |f(x_{1})| \] \[ iteraci\acute{o}n\leftarrow iteraci\acute{o}n+1 \] \[ x_{0}\leftarrow x_{1} \] \hspace{2cm}\textbf{fin condici\'{o}n}. \textbf{Fin bucle condicional}. \textbf{Si} ($(tolx<\varepsilon )\;\mathbf{y}$ $(tolf<\delta )$ ) \textbf{% entonces:} \ \ \ \ \ \ \ \ \ \ tomar $x_{1}$ como soluci\'{o}n \textbf{si no:} \ \ \ \ \ \ \ \ \ \ \textbf{Escribir} un mensaje de error en el proceso de c\'{a}lculo \textbf{fin condici\'{o}n}. \textbf{Fin del algoritmo.} \beobse En muchas ocasiones la diferencia entre dos valores consecutivos de las aproximaciones obtenidas se relativizan para expresarlas porcentualmente. Para ello en el algoritmo anterior puede sustituirse la l\'{\i}nea: \[ tolx\leftarrow \left| x_{1}-x_{0}\right| \] por otras que sean de la forma: \enobse \textbf{Si} ($x_{1}\neq 0$ ) \textbf{entonces:} \ \ \ \ \ \ \ \ \ \ $tolx\leftarrow \frac{|x_{1}-x_{0}|}{|x_{1}|} 100$ \textbf{si no:} \ \ \ \ \ \ \ \ \ \ $tolx\leftarrow |x_{1}-x_{0}|$ \textbf{fin condici\'{o}n}. \subsubsection{Variantes del m\'{e}todo de Newton-Raphson: m\'{e}todos de la secante y de ``regula falsi''} El m\'{e}todo de Newton que se acaba de exponer es un m\'{e}todo que, ge\-ne\-ral\-men\-te, tiene un buen comportamiento en la resoluci\'{o}n de muy diferentes ecuaciones no lineales. Su principal inconveniente pr\'{a}ctico consiste en la necesidad de calcular los valores de $f^{\prime }(x_{i})$ en cada iteraci\'{o}n. Por ello existen variantes del m\'{e}todo de Newton que tratan de obviar este c\'{a}lculo aproximando el valor de $f^{\prime }(x_{i}) $. Entre ellos, los m\'{a}s populares son los denominados {\bf m\'{e}todo de la secante} y {\bf m\'{e}todo de regula falsi}. \es \begin{itemize} \item[a)] \underline{ M\'{e}todo de la secante.} \end{itemize} Este m\'{e}todo aproxima el valor de $f^{\prime }(x_{i})$ mediante: \[ f^{\prime }(x_{i})\approx \frac{f(x_{i})-f(x_{i-1})}{x_{i}-x_{i-1}} \] con lo que el esquema iterativo del m\'{e}todo de Newton-Raphson se ve mo\-di\-fi\-ca\-do a: \[ x_{i+1}=x_{i}-\dis \frac{f(x_{i})}{\frac{f(x_{i})-f(x_{i-1})}{x_{i}-x_{i-1}}}=% \frac{x_{i-1} f(x_{i})-x_{i} f(x_{i-1})}{f(x_{i})-f(x_{i-1})} \] Obs\'{e}rvese que para aplicar el m\'{e}todo se necesitan dos valores $x_{0}$ y $x_{1}$ con los que inicializar el proceso. Por ello en el m\'{e}todo de la secante la primera iteraci\'{o}n se realiza mediante el m\'{e}todo de Newton sigui\'{e}ndose el siguiente proceso: \begin{eqnarray*} &&Dado\;x_{0} \\ [0.4cm] x_{1} &\leftarrow &x_{0}-\frac{f(x_{0})}{f^{\prime }(x_{0})} \end{eqnarray*} \[ x_{i+1}\leftarrow \frac{x_{i-1} f(x_{i})-x_{i} f(x_{i-1})}{% f(x_{i})-f(x_{i-1})}\;\;\;\;\;\;\;\;\;\;i=1,2,..... \] \beobse El m\'{e}todo de la secante toma su nombre del hecho de que gr\'{a}ficamente se puede interpretar el m\'{e}todo de forma similar al de Newton pero sustituyendo la recta tangente a la curva por el punto $(x_{i},f(x_{i}))$ por la recta secante que pasa por los puntos $(x_{i-1},f(x_{i-1}))$ y $% (x_{i},f(x_{i})).$ \enobse Ilustremos el funcionamiento del m\'{e}todo con un ejemplo: \bejem (Cortes\'{\i}a del Pr. E. Conde): La energ\'{\i}a el\'{e}ctrica que habitualmente consumimos se genera y transmite por las redes el\'{e}ctricas en forma de corriente alterna, es decir, en forma de onda sinusoidal, a una determinada frecuencia (en Europa 50 Hz). La existencia de campos magn\'{e}ticos hace aparecer efectos inductivos y capacitivos en la red que introducen desfases entre las ondas de corriente y las ondas de tensi\'{o}n. Una forma de representar estas ondas sinusoidales es mediante variables del campo complejo. En este sentido puede hablarse de la denominada ``potencia activa'' (P) que es la potencia \'{u}til (capaz de transformarse en trabajo) que se transmite por la red. Pero tambi\'{e}n existe la denominada ``potencia reactiva'' (Q) que es aquella que no realiza trabajo \'{u}til pero que es necesaria para la creaci\'{o}n de los campos magn\'{e}ticos y el\'{e}ctricos de los componentes del sistema. Es a esta potencia reactiva a la que se le asigna la componente imaginaria en la forma de analizar los sistemas el\'{e}ctricos. Tambi\'{e}n en estos sistemas se define la ``potencia aparente'' (S) que no es m\'{a}s que el m\'{o}dulo de la potencia transmitida, es decir $\left| S\right| =\sqrt{P^{2}+Q^{2}}$. De esta forma la potencia transmitida S (que es demandada por las cargas conectadas a la red) se puede descomponer en una potencia activa (P, parte real de S) y una potencia reactiva (Q, parte imaginaria de S). El argumento principal de la potencia transmitida ($\omega =arctg(P/Q))$ representa el desfase existente entre la onda de tensi\'{o}n y la de intensidad. La secci\'{o}n de los generadores de polos salientes, instalados en diferentes centrales el\'{e}ctricas, es del estilo a la que se recoge en la figura siguiente. %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%5 \begin{figure} \centering \includegraphics[width=0.6\textwidth]{fig45.eps} %\caption{} %\label{figura5} \end{figure} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%@ %%% En dicha secci\'{o}n se observa la existencia de una parte m\'{o}vil giratoria en la que existe un campo electromagn\'{e}tico, llamada rotor (y que es accionada normalmente por una turbina a la que arrastra el vapor a presi\'{o}n generado en las calderas de las centrales t\'{e}rmicas, o la corriente de agua en las centrales hidr\'{a}ulicas) y una parte fija, el est\'{a}tor, en la que existe un bobinado en el que se genera el campo el\'{e}ctrico (por el movimiento del rotor) que es el que entrega, previa transformaci\'{o}n, la potencia a trasmitir por la red el\'{e}ctrica. Al no existir una distancia fija entre todos los puntos del contorno del rotor y del est\'{a}tor, la resistencia en cada punto al paso del flujo magn\'{e}tico (reluctancia) es diferente en unas direcciones u otras. Por ello para su estudio se recurre a una aproximaci\'{o}n que descompone los fen\'{o}menos de la m\'{a}quina seg\'{u}n el denominado eje directo ``d'' (menor entrehierro) y el denominado eje de cuadratura ``q'' (m\'{a}ximo entrehierro). Al girar el rotor se genera en el est\'{a}tor una fuerza electromotriz E (que no es m\'{a}s que una tensi\'{o}n). Sin embargo, como el generador no es ideal, existe una diferencia entre esta fuerza electromotriz y la tensi\'{o}n V que se tiene en los bornes del generador. Como ambas son ondas sinusoidales, entre una y otra onda aparece un desfase que se denomina \'{a}ngulo de carga. Es este \'{a}ngulo de carga el que determina la relaci\'{o}n entre la potencia activa, la reactiva y la potencia aparente que puede suministrar el generador para una fuerza electromotriz E y una tensi\'{o}n en bornes V dadas. Para asegurar un funcionamiento adecuado del generador el \'{a}ngulo de carga se debe mantener dentro de unos l\'{\i}mites. Por ejemplo, en una central el\'{e}ctrica, cuando se quiere aumentar la potencia su\-mi\-nis\-trada manteniendo los valores de V y de E, se aumenta el flujo motriz de la turbina, lo cual a su vez hace aumentar el \'{a}ngulo de carga. Pero esto no se puede hacer de forma descontrolada puesto que se deben respetar los l\'{i}mites de estabilidad (desde luego nunca se deben sobrepasar los 90${% {}^{o}}$). En la pr\'{a}ctica este \'{a}ngulo se mantiene entre 30${{}^{o}}$ y 40 ${{}^{o}}$. Un generador de energ\'{\i}a el\'{e}ctrica de polos salientes, similar a los habitualmente instalados en las centrales hidroel\'{e}ctricas, tiene como caracter\'{\i}sticas asignadas: \hspace{1cm} $S_{N}=$ Potencia aparente nominal = $15$ MVA \hspace{1cm} $V_{N}=$ Tensi\'{o}n nominal = 13.6 kV \hspace{1cm} $f_{N}=$ frecuencia nominal = 50 Hz \hspace{1cm} $X_{d}=$ reac$\tan $cia s\'{\i}ncrona seg\'{u}n eje directo = 0.91 por unidad \hspace{1cm} $X_{q}=$ reac$\tan $cia s\'{\i}ncrona seg\'{u}n el eje de cuadratura = 0.76 por unidad En un momento determinado el generador est\'{a} entregando a la red el\'{e}ctrica una potencia activa de 10 MW, teniendo en bornes su tensi\'{o}n nominal (13.6 kV) y una fuerza electromotriz interna $E=16.592$ kV. Se desea encontrar el \'{a}ngulo de carga del generador (es decir, el \'{a}ngulo formado entre la tensi\'{o}n en bornes $V$ y la fuerza electromotriz $E).$ \enejem La fuerza electromotriz de un generador de polos salientes (despreciando la resistencia interna) se puede expresar por: \[ E=V+i X_{d} I_{d}+i X_{q} I_{q} \] Las potencias activa y reactiva por unidad suministradas a su vez se relacionan con la tensi\'{o}n en bornes $V$ y con la fuerza electromotriz $E$ mediante las expresiones: \[ P=\frac{\left| V\right| \left| E\right| }{X_{d}} \sin% (\delta )+\frac{\left| V\right| ^{2}}{2} \left( \frac{1}{X_{q}}-\frac{1% }{X_{d}}\right) \sin(2 \delta ) \] \[ Q=\frac{\left| V\right| \left| E\right| }{X_{d}} \cos (\delta )-\left| V\right| ^{2} \left( \frac{\cos (\delta )}{X_{d}}+\frac{\sin^2(\delta )}{X_{q}}\right) \] considerando los valores nominales de la m\'{a}quina resultar\'{a}: \[ P=\frac{10}{15}=\frac{2}{3} \] \[ \left| V\right| =\frac{13.6}{13.6}=1 \] \[ \left| E\right| =\frac{16.592}{13.6}=1.22 \] valores para los que la expresi\'{o}n de la potencia activa por unidad nos conduce a \[ \frac{2}{3}=C_{1} \sin(\delta )+C_{2} \sin(2 \delta ) \] donde \[ C_{1}=\frac{16.592}{13.6 0.91} \] \[ C_{2}=\frac{1}{2} \left( \frac{1}{0.76}-\frac{1}{0.91}\right) \] En otros t\'{e}rminos se trata de encontrar una soluci\'{o}n de la ecuaci\'{o}n: \[ f(\delta )=C_{1} \sin(\delta )+C_{2} \sin(2 \delta )-\frac{2}{3}=0 \] Para ello, puesto que \[ f^{\prime }(\delta )=C_{1} \cos (\delta )+2 C_{2} \cos (2 \delta ) \] utilizando el m\'{e}todo de Newton, se tendr\'{a} que: \[ \delta _{i+1}=\delta _{i}-\frac{C_{1} \sin(\delta _{i})+C_{2} \sin(2 \delta _{i})-\frac{2}{3}}{C_{1} \cos (\delta _{i})+2 C_{2} \cos (2 \delta _{i})} \] Partiendo de $\delta _{0}=0$ se tiene la siguiente tabla de valores: \[ \begin{tabular}{rrr} \underline{$Iteraci\acute{o}n$} & \underline{$\delta _{i}$} & \underline{$% f(\delta _{i})$} \\ 1 & $0.428023270207$ & $-0.0282916312890$ \\ 2 & $0.448797366525$ & $-0.193426752032 10^{-3}$ \\ 3 & $0.448941379375$ & $-0.954971755910 10^{-8}$ \\ 4 & $0.448941386486$ & $0.293818788744 10^{-16}$% \end{tabular} \] por lo que el \'{a}ngulo buscado ser\'{a} $\delta ^{*}\approx 0.448941386486$ $rad$ $(\approx 25.72246{{}^{o}})$ Si en lugar del m\'{e}todo de Newton se hubiese utilizado el m\'{e}todo de la secante, la primera iteraci\'{o}n se realizar\'{\i}a exactamente igual que en el m\'{e}todo de Newton y, a partir de ella, se emplear\'{i}a el esquema: \[ \delta _{i+1}\leftarrow \frac{\delta _{i-1} f(\delta _{i})-\delta _{i} f(\delta _{i-1})}{f(\delta _{i})-f(\delta _{i-1})}% \;\;\;\;\;\;\;\;\;\;i=1,2,..... \] es decir, que en este caso: \[ \delta _{i+1}=\frac{\delta _{i-1} (C_{1} \sin(\delta _{i})+C_{2} \sin(2 \delta _{i})-\frac{2}{3})-}{C_{1} (% \sin(\delta _{i})-\sin(\delta _{i-1}))+C_{2} (\sin% (2 \delta _{i})-\sin(2 \delta _{i-1}))}- \] \[ -\frac{\delta _{i} (C_{1} \sin(\delta _{i-1})+C_{2} \sin(2 \delta _{i-1})-\frac{2}{3})}{C_{1} (\sin(\delta _{i})-\sin(\delta _{i-1}))+C_{2} (\sin(2 \delta _{i})-% \sin(2 \delta _{i-1}))}\;\;\;(i=1,2,...) \] lo que, partiendo tambi\'{e}n de $\delta _{0}=0.$ nos conduce a la tabla: \[ \begin{tabular}{rrr} \underline{$Iteraci\acute{o}n$} & \underline{$\delta _{i}$} & \underline{$% f(\delta _{i})$} \\ 1 & $0.428023270207$ & $-0.0282916312890$ \\ 2 & $0.446992490293$ & $0.189692200865 10^{-1}$ \\ 3 & $0.448927715744$ & $0.193522545103 10^{-2}$ \\ 4 & $0.448941377367$ & $0.136616228246 10^{-4}$ \\ 5 & $0.448941386486$ & $0.911888545601 10^{-8}$% \end{tabular} \] En esta ocasi\'{o}n hemos necesitado una iteraci\'{o}n m\'{a}s para obtener una soluci\'{o}n sa\-tis\-fac\-to\-ria. Como luego se justificar\'{a}, el m\'{e}todo de la secante tiene una velocidad de convergencia inferior al m\'{e}todo de Newton aunque superior al m\'{e}todo de aproximaciones sucesivas. Obs\'{e}rvese tambi\'{e}n que el valor del residuo es, en nuestra soluci\'{o}n aproximada por el m\'{e}todo de la secante, superior al residuo que obtuvimos con el m\'{e}todo de Newton. Ello es debido a que, aunque los 12 primeros decimales utilizados en el desarrollo del ejemplo coinciden en ambos casos, hay diferencias en decimales posteriores que el programa con el que se han realizado los c\'{a}lculo s\'{\i} tuvo en cuenta. \es \begin{itemize} \item[b)] \underline{ El m\'{e}todo de ``Regula Falsi''.} \end{itemize} Este m\'{e}todo es una combinaci\'{o}n del m\'{e}todo de bipartici\'{o}n y el m\'{e}todo de la secante. En \'{e}l se considera una ecuaci\'{o}n $f(x)=0$ y un intervalo $[a,b]$ en el que $f(x)$ sea continua y adem\'{a}s se verifique que $f(a) f(b)<0.$ Con ello, seg\'{u}n se indic\'{o} al analizar el m\'{e}todo de bipartici\'{o}n se puede estar seguro de que en $% [a,b]$ existe al menos una ra\'{\i}z. Tras ello se denomina $x_{1}$ al punto de corte con el eje de abscisas de la recta secante que pasa por los puntos $% (a,f(a)),$ $(b,f(b))$, es decir, que ser\'{a} el punto: \[ x_{1}=\frac{a f(b)-b f(a)}{f(b)-f(a)} \] Si $f(x_{1}) f(a)<0$ se puede asegurar que en el intervalo $(a,x_{1})$ existir\'{a} una soluci\'{o}n de la ecuaci\'{o}n. En el caso de que $f(x_{1}) f(a)>0$ se puede afirmar lo mismo para el intervalo $(x_{1},b)$. Y en el caso de que $f(x_{1})=0$ se habr\'{a} determinado ya la soluci\'{o}n. En todo caso o se tiene la soluci\'{o}n de la ecuaci\'{o}n o se dispone de un intervalo m\'{a}s peque\~{n}o en el que volver a repetir el proceso. Esta forma de proceder es repetida las veces que sea necesario hasta encontrar un intervalo en el que exista una soluci\'{o}n y con una longitud inferior a la precisi\'{o}n deseada. M\'{a}s concretamente el algoritmo del m\'{e}todo ser\'{a}: \es \centerline{{\bf Algoritmo del m\'{e}todo de Regula Falsi:}} \es Dada la ecuaci\'{o}n $f(x)=0$, el indicador de precisi\'{o}n $\varepsilon $ y dos puntos $a$ y $b$ en los que $f(a) f(b)<0$, \textbf{Mientras }$|b-a|>\varepsilon ,$ \textbf{hacer:} \[ x\leftarrow \frac{a f(b)-b f(a)}{f(b)-f(a)} \] \hspace{1cm}\textbf{Si} $(f(x)=0)\;$\textbf{entonces:} \hspace{2cm}tomar $x$ como ra\'{\i}z $x^{*}$ y finalizar el proceso \hspace{1cm}\textbf{si no:} \hspace{2cm}\textbf{Si} $(f(x) f(a)$ $>$ $0)$ \textbf{entonces}: $\hspace{3cm}b\leftarrow x$ \hspace{2cm}\textbf{si no}: $\hspace{3cm}a\leftarrow x$ \hspace{2cm}\textbf{fin condici\'{o}n.} \hspace{1cm}\textbf{fin condici\'{o}n}. \textbf{Fin bucle} \textbf{condicional}. $x^{*}\leftarrow x$ \textbf{Fin del algoritmo.} %%%%%%%%%%%%%% CHICOS QUITAR \beobse Este m\'{e}todo de ``regula falsi'', aqu\'{\i} presentado como variante del m\'{e}todo de Newton-Raphson, hist\'{o}ricamente es anterior. En efecto, las primeras re\-fe\-ren\-cias de este m\'{e}todo (aunque pro\-ba\-ble\-mente sea anterior), consistentes en la aplicaci\'{o}n a la resoluci\'{o}n de algunos ejemplos de ecuaciones lineales, se deben al gran matem\'{a}tico \'{a}rabe Muhamad ibn Mus\`{a} al-Kwarizmi que trabaj\'{o} en el califato de Bagdad a finales del siglo VIII y comienzos del siglo IX. No obstante no es esta la m\'{a}s importante contribuci\'{o}n de este matem\'{a}tico. En efecto, Al-Kwarizmi contribuy\'{o} notablemente a la introducci\'{o}n del sistema de numeraci\'{o}n decimal (ar\'{a}bigo) tomado del sistema de numeraci\'{o}n hind\'{u} y en el que entre otras cosas se introduce el n\'{u}mero $0$ (no existente en los sistemas de numeraci\'{o}n anteriores). Con ello adem\'{a}s divulga c\'{o}mo operar con los n\'{u}meros decimales frente a los m\'{e}todos, entonces tradicionales, basados en \'{a}bacos. En su obra ``Aritm\'{e}tica'' Al-Kwarizmi proporciona las reglas para realizar las operaciones aritm\'{e}ticas en este sistema decimal. Las traducciones que de esta obra se hiceron posteriormente al lat\'{i}n y en las que su nombre era latinizado dieron origen a la palabra ``algoritmo'' que hoy, en general, denota los procesos que conducen a la consecuci\'{o}n de objetivos. Asimismo, Al-Kwarizmi pu\-bli\-c\'{o} una obra (``Hibab al-jabar wa-ad-muquabala'') sobre la resoluci\'{o}n de ecuaciones en las que ''restaura el orden'' (en \'{a}rabe al-jabar) de las ecuaciones que pretende resolver. Esta pu\-bli\-ca\-ci\'{o}n es con\-si\-de\-rada como el inicio de la rama de las matem\'{a}ticas que hoy en d\'{i}a se llama \'{A}lgebra (que debe su nombre a la latinizaci\'{o}n del t\'{e}rmino al-jabar). Volviendo al m\'{e}todo de regula falsi, otro matem\'{a}tico del califato de Bagdad, Abu Kamil, en torno al a\~{n}o 900, usa este m\'{e}todo, en su obra ``Sobre los aumentos y las disminuciones'', para la resoluci\'{o}n de ecuaciones lineales de una inc\'{o}gnita mediante 1 \'{o} 2 ensayos. \enobse \es \begin{itemize} \item[c)] \underline{ Otras variantes del m\'etodo de Newton.} \end{itemize} Existen otras variantes del m\'{e}todo de Newton que son relativamente utilizadas en algunas aplicaciones. As\'{\i} por ejemplo est\'{a} el denominado \textbf{m\'{e}todo de Newton modificado} en el que el valor de $% f^{\prime }$ se estima s\'{o}lo cada $k$ iteraciones actu\'{a}ndose entre dichas iteraciones con el \'{u}ltimo valor de $f^{\prime }$ calculado. Otra variante, conocida con el nombre de \textbf{m\'{e}todo de Newton mejorado} se basa en en el siguiente razonamiento: al justificar los or\'{\i}genes del m\'{e}todo de Newton escrib\'{\i}amos: \[ 0=f(x^{*})=f(x_{i})+(x^{*}-x_{i}) f^{\prime }(x_{i})+\frac{% (x^{*}-x_{i})^{2}}{2}f^{''}(x_{i})+.... \] desarrollo que una vez linealizado nos conduc\'{\i}a a que: $% (x^{*}-x_{i})\approx -\frac{f(x_{i})}{f^{\prime }(x_{i})}$ de donde se obten\'{i}a una aproximaci\'{o}n $x_{i+1}$ de la soluci\'{o}n como $x_{i}-% \frac{f(x_{i})}{f^{\prime }(x_{i})}.$ En el m\'{e}todo de Newton mejorado se usa el hecho de que $(x^{*}-x_{i})\approx -\frac{f(x_{i})}{f^{\prime }(x_{i})% }$ para sustituir esta expresi\'{o}n en uno de los dos factores $% (x^{*}-x_{i})$ que intervienen en el t\'{e}rmino de segundo grado del desarrollo de Taylor, despreciando los de mayor orden, con lo que: \[ 0=f(x^{*})\approx f(x_{i})+(x^{*}-x_{i}) f^{\prime }(x_{i})-(x^{*}-x_{i})\frac{f(x_{i})}{2 f^{\prime }(x_{i})}f^{''}(x_{i}) \] de donde \[ (x^{*}-x_{i})\approx -\frac{f(x_{i})}{f^{\prime }(x_{i})-\frac{f(x_{i}) f^{''}(x_{i})}{2 f^{\prime }(x_{i})}}=-\frac{2 f(x_{i}) f^{\prime }(x_{i})}{2 (f^{\prime }(x_{i}))^{2}-f(x_{i}) f^{''}(x_{i})} \] y gener\'{a}ndose, a partir de un $x_{0},$ la sucesi\'{o}n: \[ x_{i+1}=x_{i}-\frac{2 f(x_{i}) f^{\prime }(x_{i})}{2 (f^{\prime }(x_{i}))^{2}-f(x_{i}) f^{''}(x_{i})} \] \beobse Este m\'{e}todo tambi\'{e}n es conocido con el nombre de m\'{e}todo de Halley en honor al astr\'{o}nomo ingl\'{e}s Edmund Halley, contempor\'{a}neo y amigo de Newton, que observ\'{o} y estudi\'{o} el famoso cometa que lleva su nombre y del que, en 1707, calcul\'{o} su periodo prediciendo su aparici\'{o}n cada 76 a\~{n}os e identific\'{a}ndolo por tanto como el mismo cometa que hab\'{\i}a aparecido en las cercan\'{\i}as de la tierra en numerosas ocasiones anteriores y de las que se ten\'{\i}an numerosas referencias. Entre ellas la que le sirvi\'{o} a Giotto para dibujarlo en su cuadro sobre la Natividad como la famosa estrella de los Reyes Magos. \enobse %%%%%%%%% HASTA AQUI \subsection{Velocidad de convergencia de los m\'{e}todos iterativos} Una misma ecuaci\'{o}n no lineal podr\'{a} ser resuelta en ocasiones por diferentes m\'{e}todos i\-te\-ra\-ti\-vos. Para poder optar entre uno u otro interesar\'{a} conocer cual de ellos nos acerca m\'{a}s r\'{a}pidamente a la soluci\'{o}n de la ecuaci\'{o}n. Ello se hace a trav\'{e}s del concepto denominado ``orden de convergencia'' que pasamos a definir a continuaci\'{o}n: \begin{dfn} Siendo $\left\{ x_{i}\right\} _{i=0}^{\infty }$ una sucesi\'{o}n convergente hacia $x^{*}$ en la que $x_{i}\neq x^{*}$ para todo valor del \'{\i}ndice $i,$ se dice que \textbf{la sucesi\'{o}n converge} hacia $x^{*}$ \textbf{con orden% } $p$ \textbf{y con una constante de error asint\'{o}tico} $\beta $ cuando existen dos n\'{u}meros reales positivos $p$ y $\beta $ tales que: \[ {\lim }_{i\rightarrow \infty } \frac{|x_{i+1}-x^{*}|}{% |x_{i}-x^{*}|^{p}}=\beta \] En este sentido se dice que un \textbf{m\'{e}todo iterativo} de la forma $% x_{i+1}=g(x_{i})$ es \textbf{de orden} $p$ cuando la sucesi\'{o}n $\left\{ x_{i}\right\} _{i=0}^{\infty }$ converja hacia una soluci\'{o}n de $x=g(x)$ con orden $p.$ En el caso de que $p$ sea igual a 1 se dice que el m\'{e}todo \textbf{converge linealmente}. Y si $p$ = 2 se dice que el m\'{e}todo \textbf{converge cuadr\'{a}ticamente}. Cuando $p>1$ se dir\'{a} que la \textbf{convergencia} es \textbf{superlineal}. \end{dfn} En general, dada una sucesi\'{o}n $\left\{ x_{i}\right\} $ que converja hacia $x^{*}$ con orden de convergencia $p$ y otra sucesi\'{o}n $\left\{ x_{i}^{^{\prime }}\right\} $ que converja hacia $x^{*}$ con orden de convergencia $q\varepsilon )$ \textbf{)}, \textbf{hacer:} \begin{eqnarray*} x_{1} &\leftarrow &g(x_{0}) \\ x_{2} &\leftarrow &g(x_{1}) \end{eqnarray*} \hspace{2cm}\textbf{Si} $((x_{2}-2 x_{1}+x_{0})\neq 0)$ \textbf{% entonces:} \[ x_{3}\leftarrow x_{0}-\frac{(x_{1}-x_{0})^{2}}{x_{2}-2 x_{1}+x_{0}} \] \hspace{2cm}\textbf{si no:} \hspace{2cm}\ \ \ \ \ \ \ \ \ \ \ \ \ $\,$hacer $tol\leftarrow \frac{% \varepsilon }{2}$ \hspace{2cm}\textbf{fin condici\'{o}n}. \[ tol\leftarrow \left| x_{3}-x_{0}\right| \] \[ iteraci\acute{o}n\leftarrow iteraci\acute{o}n+1 \] \[ x_{0}\leftarrow x_{3} \] \textbf{Fin bucle condicional}. \textbf{Si} $(tol<\varepsilon )\;$\textbf{entonces:} \ \ \ \ \ \ \ \ \ \ tomar $x_{3}$ como soluci\'{o}n \textbf{si no:} \ \ \ \ \ \ \ \ \ \ \textbf{Escribir} un mensaje de error en el proceso de c\'{a}lculo \textbf{fin condici\'{o}n}. \textbf{Fin del algoritmo.} \es \beobse En el algoritmo anterior se calcula $x_{3}$ en cada iteraci\'{o}n (valor de la sucesi\'{o}n corregida) tras asegurarse de que el denominador ($\Delta ^{2}x_{0})$ es no nulo. Si lo fuese se da como soluci\'{o}n aproximada la obtenida en la i\-te\-ra\-ci\'{o}n anterior. \enobse \bejem Puesto que estamos llegando al final de la materia que se va a incluir en estos guiones sobre los m\'{e}todos de resoluci\'{o}n de una ecuaci\'{o}n no lineal, ilustremos el funcionamiento del m\'{e}todo de Steffensen sobre el primero de los ejemplos (tomados de O.T. Hanna \& O.C. Sandall [9]) con los que abr\'{\i}amos este tema. Recordemos que su enunciado era: \es La ecuaci\'{o}n de Peng-Robinson es una ecuaci\'{o}n de estado que proporciona la presi\'{o}n P de un gas mediante: \[ P=\frac{R T}{V-b}-\frac{a}{V (V+b)+b (V-b)} \] donde $a$ y $b$ son constantes, $T$ es la temperatura absoluta a la que se encuentra el gas, $V$ es el volumen espec\'{\i}fico y $R$ es la constante de los gases perfectos ($8.31441\,\mbox{J}/(\mbox{mol}{}^{o}\mbox{K}))$. Para el CO$_{2}$ las constantes $a$ y $b$ toman los valores $a=364.61 \,\mbox{m}^{6}\mbox{kPa}/(\mbox{kg\,mol})^{2}$ y $b=0.02664 \,\mbox{m}^{3}/\mbox{kg\,mol}$. Supongamos que se desea encontrar la densidad (es decir $1/V$) del CO$_{2}$ a una presi\'{o}n de $ 10^{4}$ kPa y a una temperatura de 340${{}^{o}}$ $K$ usando la ecuaci\'{o}n de Peng-Robinson. Ello implicar\'{\i}a tener que encontrar el valor de $V$ para el que: \[ 10^{4}=\frac{340R}{V-0.02664}-\frac{364.61}{% V(V+0.02664)+0.02664(V-0.02664)} \] \enejem Para aplicar el m\'{e}todo de aproximaciones sucesivas a esta ecuaci\'{o}n no lineal puede despejarse una de las inc\'{o}gnitas de la forma que sigue: \[ 10^{4}(V-0.02664)=340R-\frac{364.61 (V-0.02664)}{% V(V+0.02664)+0.02664(V-0.02664)}\Rightarrow \] \[ V=0.02664+340\cdot10^{-4}R-\frac{364.61\cdot 10^{-4}(V-0.02664)}{% V(V+0.02664)+0.02664(V-0.02664)}=g(V) \] que nos conduce al esquema iterativo: \[ V_{i+1}=0.02664+340\cdot10^{-4}R-\frac{364.61\cdot 10^{-4} (V_{i}-0.02664)% }{V_{i}(V_{i}+0.02664)+0.02664(V_{i}-0.02664)} \] Como punto de partida puede considerarse que si el gas fuese perfecto la ecuaci\'{o}n de los gases perfectos \[ P=\frac{R T}{V}\Rightarrow V=\frac{R T}{P} \] nos conducir\'{\i}a en este caso a \[ V_{0}=\frac{8.31441\cdot 340}{10^{4}}\approx 2866 \cdot 10^{-4} \] En los resultados que siguen, adem\'{a}s del valor de $V_{i}$ y de $g(V_{i})$ se proporciona el valor del residuo $r_{i}$ estimado como: \[ r_{i}=\frac{340R}{V_{i}-0.02664}-\frac{364.61}{% V_{i}(V_{i}+0.02664)+0.02664(V_{i}-0.02664)}- 10^{4} \] A partir del valor inicial considerado, el m\'{e}todo de aproximaciones sucesivas nos proporciona la siguiente tabla de valores (realizando iteraciones hasta que la distancia entre dos valores consecutivos se hace inferior a 10$^{-8}$ y $|r_{i}|<10^{-5})$: \begin{tabular}{rrrr} \underline{$Iteraci\acute{o}n$} & \underline{$V_{i}$} & \underline{$g(V_{i})$% } & \underline{$r_{i}$} \\ 1 & $0.211311226884$ & $0.187353020426$ & $-1297.34376394$ \\ 2 & $0.187353020426$ & $0.177275001886$ & $-627.081646107$ \\ 3 & $0.177275001886$ & $0.172576048103$ & $-311.943022813$ \\ 4 & $0.172576048103$ & $0.170283680111$ & $-157.080311681$ \\ 5 & $0.170283680111$ & $0.169141118216$ & $-79.5413967845$ \\ 6 & $0.169141118216$ & $0.168565615384$ & $-40.3858467251$ \\ ... & $.................$ & $.................$ & $...................$ \\ 27 & $0.167973123629$ & $0.167973123232$ & $-0.0000280358854345$ \\ 28 & $0.167973123232$ & $0.167973123031$ & $-0.0000142727608292$ \\ 29 & $0.167973123031$ & $0.167973123232$ & $-0.00000726610596669$% \end{tabular} \noindent por lo que se puede tomar $V_{a.s.}^{*}\approx 0.167973123031$ (y por tanto la densidad buscada ser\'{\i}a su inversa $5.9533333$..). La determinaci\'{o}n de este valor ha costado 29 iteraciones del m\'{e}todo de aproximaciones sucesivas. Si en su lugar se hubiera utilizado el algoritmo de Steffensen se obtendr\'{\i}a la siguiente tabla de valores (con los mismos controles de tolerancia): \begin{tabular}{rrrr} \underline{$Iteraci\acute{o}n$} & \underline{$V_{i}$} & \underline{$g(V_{i})$% } & \underline{$r_{i}$} \\ 1 & $0.176170684169$ & $0.172043245471$ & $-276.026202967$ \\ 2 & $0.168072867021$ & $0.168023886001$ & $-3.46319927617$ \\ 3 & $0.167973138878$ & $0.167973130996$ & $-0.000557724441576$ \\ 4 & $0.167973122821$ & $0.167973122821$ & $-0.140492062428 10^{-10}$ \\ 5 & $0.167973122821$ & $0.167973122821$ & $0.373034936274 10^{-12}$% \end{tabular} Obs\'{e}rvese que en la \'{u}ltima iteraci\'{o}n se repiten los valores de $% x_{i}$ y $g(x_{i})$ de la cuarta iteraci\'{o}n aunque el valor del residuo difiere. Ello es debido a que $x_{4}$ y $x_{5}$ no son iguales pero se diferencian a partir de valores decimales que est\'{a}n m\'{a}s all\'{a} de los considerados en este ejemplo. N\'{o}tese asimismo que en s\'{o}lo 5 iteraciones del m\'{e}todo de Steffensen se ha logrado una soluci\'{o}n $V_{St}^{*}\approx 0.167973122821$ muy similar a la proporcionada por el m\'{e}todo de a\-pro\-xi\-ma\-cio\-nes sucesivas ($V_{a.s.}^{*}\approx 0.167973123031$) habiendo diferencias entre e\-llas del orden de $10^{-9}$ pero que hacen mucho menor el residuo. Es decir, con menos iteraciones se ha logrado una soluci\'{o}n m\'{a}s precisa. Eso s\'{\i}, siendo honestos, debemos reconocer que en cada iteraci\'{o}n del m\'{e}todo de Steffensen se han realizado 2 e\-va\-lua\-cio\-nes de la funci\'{o}n $% g(x)$ (frente a una en el m\'{e}todo de aproximaciones sucesivas) y seis operaciones elementales m\'{a}s (las que nos proporcionaban el valor ``corregido'' $x_{3}$ en cada iteraci\'{o}n). No obstante, este mayor esfuerzo computacional en cada iteraci\'{o}n, al menos en este caso, merece la pena. \subsection{Algunos comentarios finales sobre los m\'{e}todos de re\-so\-lu\-ci\'{o}n de una ecuaci\'{o}n no lineal} 1${^{o}}$) Los m\'{e}todos presentados en este apartado constituyen los m\'{e}todos m\'{a}s b\'{a}sicos de resoluci\'{o}n de ecuaciones no lineales. Existen muchos otros aplicables a ecuaciones no lineales de determinado tipo. Entre ellos merece la pena destacar los m\'{e}todos de resoluci\'{o}n de ecuaciones polin\'{o}micas tales como los de Bairstow, Bernoulli, Dandelin-Graeffe, etc... que pueden encontrarse en la bibliograf\'{\i}a sobre este tema (por ejemplo en C. Conde \& G. Winter [5] o en E. Durand [6] o en D. Kincaid y W. Cheney [10]). \es 2${^{o}}$) En el esquema iterativo del m\'{e}todo de la secante, de forma gr\'{a}fica, se sigue la recta secante al grafo de la funci\'{o}n que pasa por los puntos $(x_{i},f(x_{i}))$ y $(x_{i-1},f(x_{i-1}))$. Algunas variantes de este m\'{e}todo consisten en ajustar en las tres \'{u}ltimas aproximaciones halladas una par\'{a}bola que pase por $(x_{i-2},f(x_{i-2})),$ $(x_{i-1},f(x_{i-1}))$ y $(x_{i},f(x_{i}))$ determinando con ella un nuevo punto, el $x_{i+1}$, como uno de los puntos en que dicha par\'{a}bola corta al eje de abscisas y continuando con \'{e}l el proceso. Esta es la idea en que se basa el denominado m\'{e}todo de M\"{u}ller cuya descripci\'{o}n puede encontrarse, por ejemplo en R. Burden \& J.D. Faires [3]. \es 3${^{o}}$)\ Asimismo existen variantes de los m\'{e}todos antes expuestos para el caso de trabajar con funciones de variable compleja. En D. Kincaid \& W. Cheney [10] o en C. Conde \& G. Winter [5] podr\'{a}n encontrarse, por ejemplo, las adaptaciones del m\'{e}todo de Newton al caso complejo. \es 4${^{o}}$) Otra familia de m\'{e}todos para la b\'{u}squeda de soluciones de una ecuaci\'{o}n no lineal se sustenta en los m\'{e}todos de optimizaci\'{o}n. Para ello se puede construir la funci\'{o}n $% r(x)=f^{2}(x). $ Esta funci\'{o}n $r(x)$ siempre tomar\'{a} valores positivos o nulos por lo que, si $f(x)=0$ admite soluci\'{o}n, los m\'{\i}nimos de $r(x)$ tendr\'{a}n valor $0.$ Pueden entonces emplearse t\'{e}cnicas de minimizaci\'{o}n (que desbordan los objetivos de este tema) para determinar los puntos m\'{i}nimos de la funci\'{o}n $r(x).$ Algoritmos tales como el de Marquardt-Levenberg o la familia de m\'{e}todos de optimizaci\'{o}n global (algoritmos gen\'{e}ticos, m\'{e}todos de ``recocido simulado'', etc...) pueden ser aplicados a $r(x).$ Remitimos al lector a la bibliograf\'{\i}a de este tema (por ejemplo J.L. de la Fuente O'Connor [7]) para un estudio de m\'{e}todos de optimizaci\'{o}n. \es 5${^{o}}$) Otros m\'{e}todos muy en boca hoy en d\'{\i}a son los m\'{e}todos de continuaci\'{o}n (o de homotop\'{\i}a). En ellos, dada la ecuaci\'{o}n $% f(x)=0,$ se considera que la variable $x$ depende a su vez (mediante una funci\'{o}n desconocida ``a priori'') de un par\'{a}metro $\lambda \in \left[ 0,1\right] $ de forma tal que cuando $\lambda $ tome el valor 1 se verifique que $x(1)=x^{*},$ siendo $x^{*}$ una soluci\'{o}n de la ecuaci\'{o}n planteada. Por ejemplo, es habitual, dado un valor inicial $% x_{0},$ considerar que $f(x(\lambda ))=(1-\lambda )f(x_{0}).$ De esta forma cuando $\lambda $ tome el valor 1 se deber\'{a} verificar que $f(x(1))=0$ con lo que $x^{*}=x(1).$ Con esta elecci\'{o}n se tendr\'{a} que: \[ \left\{ \begin{array}{c} \frac{df}{dx}(x(\lambda )) \frac{dx}{d\lambda }(\lambda )=-f(x_{0}) \\ x(0)=x_{0} \end{array} \right\} \;\;\;\;\;\;\;\;\lambda \in \left[ 0,1\right] \] En las expresiones anteriores $\frac{df}{dx}(x(\lambda ))$ puede calcularse (pues $f(x)$ ) es conocida) y ser\'{a} una expresi\'{o}n que depender\'{a} de $x(\lambda ).$ Por tanto las ecuaciones anteriores re\-pre\-sen\-tan un problema de valor inicial cuya resoluci\'{o}n nos determinar\'{a} la expresi\'{o}n de la funci\'{o}n $x(\lambda )$ buscada. A su vez la resoluci\'{o}n del problema de valor inicial se realiza en la pr\'{a}ctica mediante m\'{e}todos num\'{e}ricos como los que se abordar\'{a}n en el cap\'{\i}tulo siguiente de estos guiones. Por ello retomaremos este m\'{e}todo en el pr\'{o}ximo cap\'{\i}tulo como una aplicaci\'{o}n de los m\'{e}todos de resoluci\'{o}n num\'{e}rica de problemas de valor inicial. \es 6${^{o}}$) Una vez determinada una soluci\'{o}n de la ecuaci\'{o}n $f(x)=0,$ otras ra\'{\i}ces pueden buscarse utilizando la denominada t\'{e}cnica de deflacci\'{o}n en la que $f(x)$ se expresa como: \[ f(x)=(x-x^{*}) h(x)\Leftrightarrow h(x)=\frac{f(x)}{(x-x^{*})} \] y se buscan otras posibles ra\'{\i}ces de la ecuaci\'{o}n $h(x)=0.$ En rigor la funci\'{o}n $h(x)$ no estar\'{\i}a definida en el punto $x=x^{*}$ (pues en \'{e}l aparecer\'{\i}a una divisi\'{o}n por 0). Por ello, si se tiene necesidad de trabajar en dicho punto, se definir\'{a}: \[ h(x^{*})=\displaystyle{{\lim }_{x\to x^{*}}} \frac{f(x)}{(x-x^{*})} \] \es 7${^{o}}$) Habitualmente, si una funci\'{o}n $f(x)$ tiene diferentes ra\'{\i}ces, dependiendo del punto de partida $x_{0}$ con el que se arranque el proceso iterativo se podr\'{a} determinar una u otra de ellas. Al conjunto de puntos que tomados como valor de arranque del m\'{e}todo iterativo conducen a la soluci\'{o}n $x^{*}$ se le llama \textbf{dominio} (o cuenca) \textbf{de atracci\'{o}n} de la ra\'{\i}z. Por ejemplo, si $% f(x)=x^{2}-\frac{1}{4}$ es obvio que sus ra\'{\i}ces son $\pm \frac{1}{2}.$ Si se buscan las ra\'{\i}ces de esta ecuaci\'{o}n mediante el m\'{e}todo de Newton puede comprobarse que: \hspace{1cm}a) Si $x_{0}\leq -\frac{1}{2}$ la soluci\'{o}n que proporciona el m\'{e}todo es $x^{*}=-\frac{1}{2}$ \hspace{1cm}b) Si $-\frac{1}{2}\frac{1}{2}$ el m\'{e}todo diverge \hspace{1cm}b) So $x_{0}=\frac{-3}{2}$ o $x_{0}=\frac{1}{2}$ el m\'{e}todo converge (en una iteraci\'{o}n) a $\frac{1}{2}$ \hspace{1cm}c) Para otros valores de $x_{0}$ el m\'{e}todo converge hacia $% \frac{-1}{2}$ Por ello para la ecuaci\'{o}n considerada y para el m\'{e}todo de aproximaciones sucesivas el dominio de atracci\'{o}n de la ra\'{\i}z $\frac{-1% }{2}$ es $]\frac{-3}{2},\frac{1}{2}]$ y el de la ra\'{\i}z $\frac{1}{2}$ es $% \{\frac{-3}{2},\frac{1}{2}\}.$ \es 8${{{}^{o}}}$) Debido al comentario anterior es aconsejable buscar intervalos en los que la funci\'{o}n s\'{o}lo tenga una ra\'{\i}z y tome valores con signos alternos en los extremos del intervalo, combinando los m\'{e}todos de resoluci\'{o}n con el m\'{e}todo de bipartici\'{o}n. En Press et al. [12] pueden encontrarse m\'{e}todos de ``separaci\'{o}n de ra\'{\i}ces'' (el proceso de \textit{bracketing}) que permiten buscar tales intervalos mediante la exploraci\'{o}n de los valores de la funci\'{o}n en diferentes puntos. Tambi\'{e}n en Press [12] pueden encontrarse programas en FORTRAN\ 90 que recogen los m\'{e}todos que hemos presentado anteriormente combin\'{a}ndolos con el m\'{e}todo de bipartici\'{o}n. \es 9${{}^{o}}$) La existencia de ra\'{\i}ces m\'{u}ltiples, como ya se se\~{n}al\'{o} anteriormente, puede ralentizar la aproximaci\'{o}n hacia las ra\'{\i}ces de una funci\'{o}n. Pero no es este el \'{u}nico inconveniente que tales ra\'{\i}ces presentan. En efecto, si la multiplicidad de una ra\'{\i}z es elevada tambi\'{e}n puede tenerse la sensaci\'{o}n de haber encontrado dicha ra\'{\i}z estando relativamente alejados de ella. As\'{\i} si en el proceso de b\'{u}squeda de una ra\'{\i}z $x^{*}$ de multiplicidad $m$ de la funci\'{o}n $f(x)$ se tiene en un momento un valor aproximado $\alpha $% , el valor de la funci\'{o}n en $\alpha $ ser\'{a}: $f(\alpha )=(\alpha -x^{*})^{m} \varphi (\alpha )$. Si $\alpha $ es ``pr\'{o}ximo'' a $% x^{*} $, aunque no lo suficientemente pr\'{o}ximo como para que sea su ra\'{\i}z, y $m$ es elevado el valor de $f(\alpha )$ puede ser, computacionalmente hablando, nulo sin que esta sea la ra\'{\i}z buscada. Un ejemplo para aclarar lo anterior (tomado de Shampine \& Allen \& Pruess [13]) es aquel en el que $x^{*}$ es una ra\'{i}z de multiplicidad $10$ y $% \alpha -x^{*}=10^{-4}.$ En ese caso, la precisi\'{o}n puede no ser la deseada y sin embargo: $f(\alpha )=10^{-40} g(\alpha )$ lo que implicar\'{\i}a que si se est\'{a} trabajando en un ordenador con precisi\'{o}n simple y $% \left| g(\alpha )\right| <1,$ el ordenador toma $f(\alpha )$ como 0 por lo que ``detecta'' una ra\'{\i}z en $\alpha .$ \es 10${{}^{o}}$) Para evitar problemas como los anteriores, en ocasiones es \'{u}til ``escalar'' la ecuaci\'{o}n a resolver. Ello consiste simplemente en reemplazar la ecuaci\'{o}n $f(x)=0$ por otra de la forma $F(x)= s(x) f(x)=0$ que admitir\'{a}, entre otras, las soluciones de la ecuaci\'{o}n inicial. La funci\'{o}n $s(x)$ debe ser escogida adecuadamente y se denomina funci\'{o}n de escala (o factor de escala cuando es una constante). Ello puede contribuir a aumentar los valores de la funci\'{o}n en las supuestas ra\'{\i}ces. As\'{\i}, por poner un ejemplo obvio, si se desean encontrar ra\'{\i}ces de la ecuaci\'{o}n $10^{-38} \cos (x)=0,$ y se trabaja en un ordenador con precisi\'{o}n simple, la estimaci\'{o}n en cualquier punto $x$ de la recta real del valor $f(x)=10^{-38} \cos (x)$ es siempre nulo (pues en simple precisi\'{o}n no se pueden almacenar n\'{u}meros tan peque\~{n}os). En otros t\'{e}rminos, en simple precisi\'{o}n cualquier valor real ser\'{\i}a para el ordenador soluci\'{o}n de la ecuaci\'{o}n dada. Si la ecuaci\'{o}n se escala multiplic\'{a}ndola por $10^{38}$ se tiene ahora $F(x)= \cos (x)=0$ y sobre esta ecuaci\'{o}n el ordenador ya puede distinguir si se est\'{a} en las cercan\'{i}as de una ra\'{\i}z o no. No siempre es tan sencillo el proceso de ``escalar'' ecuaciones. En Shampine \& Allen \& Pruess [13] pueden encontrarse algunos ejemplos muy instructivos y simples a este respecto. \es 11${{}^{o}}$) En algunos c\'odigos, la b\'usqueda de ra\'{\i}ces m\'ultiples de $f(x)$ se realiza buscando las ra\'{\i}ces simples de $h(x)=f(x)/f' (x)$. \section{M\'{e}todos de resoluci\'{o}n de sistemas de ecuaciones no li\-nea\-les.} Los m\'{e}todos de aproximaciones sucesivas, Newton-Raphson y sus variantes, presentados en el apartado anterior para el caso de una \'{u}nica ecuaci\'{o}n pueden extenderse f\'{a}cilmente al caso de sistemas de n ecuaciones no lineales con n inc\'{o}gnitas. Este tipo de sistemas los escribiremos en la forma: \[ \left\{ \begin{array}{c} f_{1}(x_{1},x_{2},....,x_{n})=0 \\ f_{2}(x_{1},x_{2},....,x_{n})=0 \\ ............................ \\ f_{n}(x_{1},x_{2},....,x_{n})=0 \end{array} \right. \] o m\'{a}s brevemente como $\mathbf{f}(\mathbf{x})=\mathbf{0}$ donde $\mathbf{% 0}$ es el vector nulo de n componentes, $\mathbf{x}$ es un vector de $\R^{n}$ y $\mathbf{f}$ es la funci\'{o}n vectorial dependiente de n variables reales dada por: \[ \mathbf{f} :\R^{n} \rightarrow \R^{n} \] \begin{eqnarray*} \mathbf{x} =(x_{1},x_{2},...,x_{n})^{T}\rightarrow \mathbf{f}(\mathbf{x}% )=\left\{ \begin{array}{c} f_{1}(x_{1},x_{2},....,x_{n}) \\ f_{2}(x_{1},x_{2},....,x_{n}) \\ ............................ \\ f_{n}(x_{1},x_{2},....,x_{n}) \end{array} \right. \end{eqnarray*} Al igual que se indic\'{o} para el caso de un \'{u}nica ecuaci\'{o}n, no debe confundirse esta forma de representar el sistema de ecuaciones con el que la funci\'{o}n $\mathbf{f}(\mathbf{x})$ sea id\'{e}nticamente nula. En efecto con la notaci\'{o}n $\mathbf{f}(\mathbf{x})=\mathbf{0}$ estaremos representando de forma breve en este apartado el problema siguiente: ``Encontrar, si es posible, alg\'{u}n vector $\mathbf{x}^{*}$ de $\R% ^{n}$ para el que se verifique que $\mathbf{f}(\mathbf{x}^{*})=\mathbf{0}$'' \subsection{El m\'{e}todo de aproximaciones sucesivas para sistemas de n ecuaciones no lineales} Este m\'{e}todo se basa en el teorema del punto fijo. Para su aplicaci\'{o}n, al igual que en el caso de una ecuaci\'{o}n, se transforma el sistema $\mathbf{f}(\mathbf{x})=\mathbf{0}$ en otro equivalente (es decir con las mismas soluciones, de la forma $\mathbf{x}=\mathbf{g}(\mathbf{x})).$ La forma de realizar esta transformaci\'{o}n no es \'{u}nica. Por ejemplo, si se suma el vector $\mathbf{x}$ en ambos t\'{e}rminos del sistema se tendr\'{a} que: \[ \mathbf{x}=\mathbf{x}+\mathbf{f}(\mathbf{x}) \] por lo que podr\'{\i}a tomarse $\mathbf{g}(\mathbf{x})=\mathbf{x}+\mathbf{f}(% \mathbf{x}).$ Pero tambi\'{e}n podr\'{\i}a realizarse el proceso: \[ \mathbf{f}(\mathbf{x})=\mathbf{0}\Longleftrightarrow \mathbf{x}=\mathbf{x}-% \mathbf{f}(\mathbf{x}) \] por lo que $\mathbf{g}(\mathbf{x})=\mathbf{x}-\mathbf{f}(\mathbf{x})$ tambi\'{e}n ser\'{\i}a otra forma de realizar la transformaci\'{o}n antes aludida. O podr\'{i}a despejarse (total o parcialmente) de la primera ecuaci\'{o}n $% x_{1},$ de la segunda $x_{2},$ ..... y de la n-\'{e}sima ecuaci\'{o}n $x_{n}$ con lo que tambi\'{e}n escribir\'{\i}amos el sistema en la forma deseada. Tambi\'{e}n ahora debe ponerse atenci\'{o}n en el hecho de que a pesar de que existan muy diferentes formas de rescribir $\mathbf{f}(\mathbf{x})=% \mathbf{0}$ en la forma $\mathbf{x}=\mathbf{g}(\mathbf{x})$ no todas son equivalentes para aplicar sobre ellas el m\'{e}todo de aproximaciones sucesivas y debe seleccionarse con cuidado la forma en la que se da este paso para que, a la luz de lo que nos indiquen los teoremas y propiedades que a continuaci\'{o}n presentaremos, se garantice la convergencia (lo m\'{a}s r\'{a}pidamente posible) del m\'{e}todo. Una vez escrito el sistema de ecuaciones en la forma $\mathbf{x}=\mathbf{g}(% \mathbf{x})$ el m\'{e}todo de aproximaciones sucesivas consiste en seleccionar ``arbitrariamente'' (aunque mejor cuanto m\'{a}s cercano est\'{e} a la soluci\'{o}n buscada) un vector $\mathbf{x}^{(0)}$ con el que inicializar el esquema iterativo siguiente: \[ \mathbf{x}^{(i+1)}=\mathbf{g}(\mathbf{x}^{(i)})\;\;\;\;\;\;\;\;\;\;\;\;% \;(i=0,1,2,....) \] De esta forma se genera una sucesi\'{o}n de vectores $\{\mathbf{x}^{(i+1)}=% \mathbf{g}(\mathbf{x}^{(i)})\}_{i=0}^{\infty }.$ Y seg\'{u}n el teorema del punto fijo se tiene el resultado siguiente: \beteor Si para alguna norma definida sobre $\R^{n}$ se verifica que $\mathbf{% g}(\mathbf{x})$ es una contracci\'{o}n sobre un dominio $D$ cerrado de $\R^{n}$ y $\mathbf{x}^{(0)}$ es un punto de $D$, entonces el m\'{e}todo de aproximaciones sucesivas antes planteado converge hacia la \'{u}nica soluci\'{o}n en D de la ecuaci\'{o}n $\mathbf{x}=\mathbf{g}(% \mathbf{x}).$ \enteor \underline{Demostraci\'{o}n\textbf{:}} Por ser $D$ un cerrado de $\R^{n}$ ser\'{a} completo. Y por aplicaci\'{o}n directa del teorema de punto fijo, al ser $\mathbf{g}(\mathbf{% x})$ una contracci\'{o}n se verificar\'{a} que: \hspace{0.8cm}1${{}^{o}}$) S\'{o}lo existir\'{a} un punto $\mathbf{x}^{*}$ de $D$ para el que $\mathbf{x}^{*}=\mathbf{g}(\mathbf{x}^{*})$ \hspace{0.8cm}2${{}^o}$) La sucesi\'{o}n $\{\mathbf{x}^{(i+1)}=\mathbf{g}(% \mathbf{x}^{(i)})\}_{i=0}^{\infty }$ converge hacia $\mathbf{x}^{*}$ en el sentido de la norma utilizada. Y si la sucesi\'{o}n converge para la norma con la que se trabaja en $% \R^{n}$ tambi\'{e}n lo har\'{a} para cualquier norma definida sobre $\R^{n}$ pues al ser $\R^{n}$ de dimensi\'{o}n finita todas las normas sobre \'{e}l definidas ser\'{a}n equivalentes. \hspace{10cm}c.q.d. \beobse Es conveniente observar que \begin{enumerate} \item Puesto que el sistema de ecuaciones $\mathbf{x }=\mathbf{g}(\mathbf{x})$ es equivalente al sistema $\mathbf{f}(% \mathbf{x})=\mathbf{0}$\, en las condiciones del teorema anterior el m\'{e}todo de aproximaciones sucesivas converge hacia una soluci\'{o}n $\mathbf{x}^{*}$ del sistema $\mathbf{f}(\mathbf{x})=\mathbf{0}$. \item En otros t\'{e}rminos las funciones $\mathbf{g}(\mathbf{x})$ con las que nos interesa trabajar son aquellas que, para alguna norma vectorial $\| \|$, sean una contracci\'{o}n sobre alg\'{u}n dominio cerrado $D$ de $\R^{n}.$ \item El teorema anterior nos proporciona unas condiciones que aseguran la convergencia del m\'{e}todo. Son pues condiciones suficientes para la convergencia del m\'{e}todo. Pero el teorema no dice nada sobre su necesidad. Y en efecto puede haber situaciones particulares en las que no verific\'{a}ndose las condiciones del teorema (que $\mathbf{g}(\mathbf{x})$ sea una contracci\'{o}n sobre el dominio D en el que se busca el vector soluci\'{o}n) el m\'{e}todo tambi\'{e}n converja. A este respecto el teorema anterior se limita a no asegurar el buen funcionamiento del m\'{e}todo en el caso de que no se satisfagan las hip\'{o}tesis en \'{e}l hechas pero sin impedir su buen funcionamiento en dichos casos. \end{enumerate} \enobse El demostrar que una aplicaci\'{o}n $\mathbf{g}(\mathbf{x})$ es una contracci\'{o}n para alguna norma, mediante la determinaci\'{o}n de su constante de Lipschitz puede, en ciertas ocasiones, resultar algo laborioso. Por ello pueden contemplarse variantes m\'{a}s restrictivas (pero m\'{a}s f\'{a}cilmente aplicables en la pr\'{a}ctica) del teorema anterior. En ellas, asumiendo que todas las componentes de la funci\'{o}n $\mathbf{g}(% \mathbf{x})$ son derivables en todos los puntos del dominio de trabajo, se utiliza la matriz Jacobiana de la aplicaci\'{o}n $\mathbf{g}(\mathbf{x})$, que denotaremos por $\left[ \mathbf{J}_{\mathbf{g}}(\mathbf{x})\right] $ y que recordamos que se defin\'{\i}a mediante: \[ \dis \left[ \mathbf{J}_{\mathbf{g}}(\mathbf{x})\right] =\dis \left[ \begin{array}{rrrr} \frac{\partial g_{1}}{\partial x_{1}}(\mathbf{x}) & \frac{\partial g_{1}}{% \partial x_{2}}(\mathbf{x}) & ... & \frac{\partial g_{1}}{\partial x_{n}}(% \mathbf{x}) \\ \frac{\partial g_{2}}{\partial x_{1}}(\mathbf{x}) & \frac{\partial g_{2}}{% \partial x_{2}}(\mathbf{x}) & ... & \frac{\partial g_{2}}{\partial x_{n}}(% \mathbf{x}) \\ ... & ... & ... & ... \\ \frac{\partial g_{n}}{\partial x_{1}}(\mathbf{x}) & \frac{\partial g_{n}}{% \partial x_{2}}(\mathbf{x}) & ... & \frac{\partial g_{n}}{\partial x_{n}}(% \mathbf{x}) \end{array} \right] \] Con esta notaci\'{o}n se tiene el siguiente teorema: \beteor Si $\mathbf{g}(\mathbf{x})$ es una aplicaci\'{o}n de clase $\left( C^{1}(D)\right) ^{n}$ y que toma valores en el cerrado $D$ verificando para alguna norma matricial subordinada la condici\'{o}n: \[ \exists k<1\;\;/\;\;\;\;\;\;\left\| \left[ \mathbf{J}_{\mathbf{g}}(\mathbf{x}% )\right] \right\| \leq k<1\;\;\;\;\;\;\;\;\;\;\;\forall \mathbf{x}\in D \] entonces la sucesi\'{o}n $\left\{ \mathbf{x}^{(i+1)}=\mathbf{g}(\mathbf{x}% ^{(i)})\right\} _{i=0}^{\infty }$ generada, a partir de cualquier $\mathbf{x}% ^{(0)}\in D,$ converge hacia la \'{u}nica soluci\'{o}n de la ecuaci\'{o}n $% \mathbf{x}=\mathbf{g}(\mathbf{x})$ en $D$. \enteor \underline{Demostraci\'{o}n:} Por aplicaci\'{o}n del teorema del valor medio se verificar\'{a} que: \[ \forall \mathbf{x},\mathbf{y}\in D\;\;\;\exists \mathbf{z}\in \stackrel{% \circ }{D}\diagup \;\;\;\mathbf{g}(\mathbf{x})-\mathbf{g}(\mathbf{y})=\left[ \mathbf{J}_{\mathbf{g}}(\mathbf{z})\right] (\mathbf{x}-\mathbf{y}) \] y por haber supuesto que para alguna norma matricial subordinada, el valor de $% \left\| \left[ \mathbf{J}_{\mathbf{g}}(\mathbf{x})\right] \right\| $ estaba acotado por $k,$ trabajando con la norma vectorial a la que est\'{a} subordinada la anterior norma matricial se tendr\'{a} que: \begin{eqnarray*} \forall \mathbf{x},\mathbf{y} &\in &D:\;\;\;||\mathbf{g}(\mathbf{x})-\mathbf{% g}(\mathbf{y})||=\left\| \left[ \mathbf{J}_{\mathbf{g}}(\mathbf{z})\right] (% \mathbf{x}-\mathbf{y})\right\| \leq \\ &\leq &\left\| \left[ \mathbf{J}_{\mathbf{g}}(\mathbf{z})\right] \right\| \left\| \mathbf{x}-\mathbf{y}\right\| \leq k ||\mathbf{x}-\mathbf{y}% ||<||\mathbf{x}-\mathbf{y||} \end{eqnarray*} por lo que, teniendo en cuenta que $\mathbf{g}:D\rightarrow D,$ resulta que $% \mathbf{g}(\mathbf{x})$ es una contracci\'{o}n. Aplicando el teorema precedente quedar\'{a} totalmente demostrado. \hspace{10cm}c.q.d. \beobse Cuando en las aplicaciones se utilice este teorema para comprobar que la aplicaci\'{o}n considerada es una contracci\'{o}n se tomar\'{a} como aproximaci\'{o}n de la constante de Lipschitz el valor $k=$ ${M\acute{a}x}_{\mathbf{x}\in D}% \left\{ \left\| \left[ \mathbf{J}_{\mathbf{g}}(\mathbf{x})\right] \right\| \right\} .$ \enobse Los dos teoremas precedentes establecen condiciones suficientes de convergencia {\em glo\-bal} del m\'{e}todo sobre un dominio cerrado $D$ (esto es independientemente del punto $\mathbf{x}^{(0)}\in D$ con el que se inicialice el proceso iterativo). Cuando se conozca un cierto entorno de la soluci\'{o}n buscada pueden establecerse resultados de convergencia {\em local} (es decir, para puntos $\mathbf{x}^{(0)}$ suficientemente pr\'{o}ximos a la soluci\'{o}n). As\'{\i} por ejemplo, se tiene el siguiente teorema: \beteor Si existe una soluci\'{o}n $\mathbf{x}^{*}$ de la ecuaci\'{o}n $\mathbf{x}=% \mathbf{g}(\mathbf{x})$ en un dominio ce\-rra\-do $D$ en el que $\mathbf{g}( \mathbf{x})$ es de clase $\left( C^{1}(D)\right) ^{n}$ y para alguna norma matricial subordinada $\left\| \left[ \mathbf{J}_{\mathbf{g}}(\mathbf{x}% ^{*})\right] \right\| <1$ entonces existe un valor $\delta >0$ tal que si, trabajando con la norma vectorial asociada a la norma matricial anterior, $||% \mathbf{x}^{*}-\mathbf{x}^{(0)}||<\delta $ la sucesi\'{o}n $\left\{ \mathbf{x% }^{(i+1)}=\mathbf{g}(\mathbf{x}^{(i)})\right\} _{i=0}^{\infty }$ verifica que: \begin{itemize} \item[a)] $||\mathbf{x}^{*}-\mathbf{x}^{(i)}||<\delta \;\;\;\;\;\forall \mathbf{x}^{(i)}$ \item[b)] ${\lim }_{i\rightarrow \infty } \mathbf{x}^{(i)}=% \mathbf{x}^{*}$. \end{itemize} \enteor \underline{Demostraci\'{o}n:} Por ser $\dis \frac{\partial g_{i}}{\partial x_{j}}(% \mathbf{x})$ (i, j = 1, ..., n) continuas en todo $\mathbf{x}\in D$ existir\'{a} una bola abierta de centro $\mathbf{x}^{*}$ y radio $\delta ^{\prime }$ , $B(\mathbf{x}^{*},\delta ^{\prime })$ tal que en ella se verifique: \[ \left\| \left[ \mathbf{J}_{\mathbf{g}}(\mathbf{x})\right] \right\| \leq k<1\;\;\;\;\;\;\forall \mathbf{x}\in B(\mathbf{x}^{*},\delta ^{\prime }) \] Considerando un valor $\delta <\delta ^{\prime }$ se tendr\'{a} por tanto que, \[ \left\| \left[ \mathbf{J}_{\mathbf{g}}(\mathbf{x})\right] \right\| \leq k<1\;\;\;\;\;\;\forall \mathbf{x}\in B^{\prime }(\mathbf{x}^{*},\delta ) \] donde $B^{\prime }(\mathbf{x}^{*},\delta )$ es una bola cerrada de centro $% \mathbf{x}^{*}$ y radio $\delta .$ Consecuentemente $\mathbf{g}(\mathbf{x})$ es una contracci\'{o}n en $% B^{\prime }(\mathbf{x}^{*},\delta ).$ Ello conduce a que $$ \forall \mathbf{x}^{(i)}\in \left\{ \mathbf{x}^{(i)}\right\} _{i=1}^{\infty }:\;\;\;\left\| \mathbf{x}^{(i)}-\mathbf{x}^{*}\right\| =\left\| \mathbf{g}(% \mathbf{x}^{(i-1)})-\mathbf{g}(\mathbf{x}^{*})\right\| \frac{\log \left( \frac{\varepsilon (1-k)}{% \left\| \mathbf{x}^{(1)}-\mathbf{x}^{(0)}\right\| }\right) }{\log (k)} \] \item Si no se conoce el valor exacto de la constante de Lipschitz de la aplicaci\'{o}n puede estimarse de forma aproximada de diferentes maneras. Por ejemplo, tras cada i\-te\-ra\-ci\'{o}n del m\'{e}todo podr\'{\i}a obtenerse una aproximaci\'{o}n de dicha constante estimando la norma de la matriz jacobiana en el \'{u}ltimo punto ha\-lla\-do. \end{enumerate} \enobse En la pr\'{a}ctica, en lugar de calcular a priori el n\'{u}mero de iteraciones a realizar se va estimando en cada iteraci\'{o}n la distancia del punto en ella hallado a la soluci\'{o}n exacta. Esta estimaci\'{o}n se realiza simplemente evaluando la diferencia entre las dos \'{u}ltimas aproximaciones halladas que, cuando $\mathbf{g}(\mathbf{x})$ es una contracci\'{o}n, son un indicador de la cercan\'{\i}a a la soluci\'{o}n exacta en virtud del siguiente teorema: \beteor Siendo $\mathbf{g}(\mathbf{x})$ una contracci\'{o}n definida en el cerrado $D $ la distancia entre la \'{u}nica soluci\'{o}n $\mathbf{x}^{*}$ en D de la ecuaci\'{o}n $\mathbf{x}=\mathbf{g}(\mathbf{x})$ y cualquier elemento de la sucesi\'{o}n $$ \dis \left\{ \mathbf{x}^{(n)}=\mathbf{g}(\mathbf{x}% ^{(n-1)})\right\} _{n=0}^{\infty }, $$ generada a partir de cualquier punto $\mathbf{x}^{(0)}\in D,$ est\'{a} acotada mediante la expresi\'{o}n: \[ \left\| \mathbf{x}^{*}-\mathbf{x}^{(n)}\right\| \leq \frac{k}{1-k} \left\| \mathbf{x}^{(n)}-\mathbf{x}^{(n-1)}\right\| \] donde $k$ es la constante de Lipschitz de la contracci\'on. \enteor \underline{Demostraci\'{o}n:} V\'{e}ase la segunda observaci\'on realizada tras la demostraci\'{o}n del teorema del punto fijo. \hspace{10cm}c.q.d. Con ello, cuando $\mathbf{g}(\mathbf{x})$ sea una contracci\'{o}n, al ser $% k<1$, bastar\'{a} con hacer un n\'{u}mero de iteraciones tal que $\left\| \mathbf{x}^{(n)}-\mathbf{x}^{(n-1)}\right\| $ sea suficientemente peque\~{n}o para asegurar que $\left\| \mathbf{x}^{*}-\mathbf{x}% ^{(n)}\right\| $ tambi\'{e}n es peque\~{n}o. Este control de la convergencia debe acompa\~{n}arse con la limitaci\'{o}n del n\'{u}mero de iteraciones a realizar, en previsi\'{o}n de los casos en los que, no siendo $\mathbf{g}(% \mathbf{x})$ una contracci\'{o}n, el m\'{e}todo no converja, y con el control del valor de $\left\| \mathbf{f}(\mathbf{x}^{(n)})\right\| =$ $% \left\| \mathbf{g}(\mathbf{x}^{(n)})-\mathbf{x}\right\| $ en cada iteraci\'{o}n. M\'{a}s concretamente un algoritmo del m\'{e}todo de aproximaciones sucesivas, en el que se parte de la ecuaci\'{o}n equivalente $% \mathbf{x}=\mathbf{g}(\mathbf{x})$ es el siguiente: \es \centerline{{\bf Algoritmo del m\'{e}todo de aproximaciones sucesivas:}} \es Dada la ecuaci\'{o}n $\mathbf{x}=\mathbf{g}(\mathbf{x})$, los indicadores de precisi\'{o}n $\varepsilon $ y $\delta $, un valor m\'{a}ximo del n\'{u}mero de iteraciones que se permiten realizar $(maxiter)$ y un punto $\mathbf{x}% ^{(0)}$ con el que inicializar el proceso, $tolx\leftarrow 2 \varepsilon $ $tolf\leftarrow 2 \delta $ $iteraci\acute{o}n\leftarrow 0$ \textbf{Mientras} \textbf{(} $(iteraci\acute{o}n\varepsilon )\;o\;(tolf>\delta )$\textbf{)}, \textbf{hacer:} \[ \mathbf{x}^{(1)}\leftarrow \mathbf{g}(\mathbf{x}^{(0)}) \] \begin{eqnarray*} tolx &\leftarrow &\left\| \mathbf{x}^{(1)}-\mathbf{x}^{(0)}\right\| \\ tolf &\leftarrow &\left\| \mathbf{g}(\mathbf{x}^{(1)})-\mathbf{x}% ^{(1)}\right\| \end{eqnarray*} \[ iteraci\acute{o}n\leftarrow iteraci\acute{o}n+1 \] \[ \mathbf{x}^{(0)}\leftarrow \mathbf{x}^{(1)} \] \textbf{Fin bucle condicional}. \textbf{Si} $((tolx<\varepsilon )\;y\;(tolf<\delta ))\;$\textbf{entonces:} \ \ \ \ \ \ \ \ \ \ tomar $\mathbf{x}^{(1)}$ como soluci\'{o}n \textbf{si no:} \ \ \ \ \ \ \ \ \ \ \textbf{Escribir} un mensaje de error en el proceso de c\'{a}lculo \textbf{fin condici\'{o}n}. \textbf{Fin del algoritmo.} \es Ilustremos el m\'{e}todo que se acaba de describir mediante un ejemplo. \bejem (Cortes\'{\i}a del Pr. B. Coto): Seg\'{u}n el modelo de Wilson las expresiones de los coeficientes de actividad a diluci\'{o}n infinita ($\gamma _{i}^{\infty })$ de una mezcla binaria est\'{a}n dadas por las expresiones: \begin{eqnarray*} \ln (\gamma _{1}^{\infty }) &=&1-\ln (\Lambda _{12})-\Lambda _{21} \\ \ln (\gamma _{2}^{\infty }) &=&1-\ln (\Lambda _{21})-\Lambda _{12} \end{eqnarray*} donde $\Lambda _{12}$ y $\Lambda _{21}$ son los par\'{a}metros binarios de la mezcla. Se desea saber con el modelo de Wilson el valor de los par\'{a}metros binarios en los dos casos siguientes: \begin{itemize} \item[a)] En el caso de una mezcla binaria ideal en la que los coeficientes de actividad a diluci\'{o}n infinita son $\gamma _{1}^{\infty }=\gamma _{2}^{\infty }=1.091.$ \item[b)] En una mezcla de agua y etanol para la cual $\gamma _{1}^{\infty }=7.20$ y $\gamma _{2}^{\infty }=2.74.$ \end{itemize} \enejem \underline{Soluci\'{o}n:} \es Por simplicidad denotaremos como $x_{1}=\Lambda _{12}$ y como $x_{2}=\Lambda _{21}.$ Con ello las ecuaciones del modelo de Wilson se escriben como: \begin{eqnarray*} \ln (\gamma _{1}^{\infty }) &=&1-\ln (x_{1})-x_{2} \\ \ln (\gamma _{2}^{\infty }) &=&1-\ln (x_{2})-x_{1} \end{eqnarray*} \underline{Caso a)}: Una primera opci\'{o}n para intentar resolver estas ecuaciones mediante el m\'{e}todo de aproximaciones sucesivas consiste en despejar $x_{1}$ de la segunda ecuaci\'{o}n y $x_{2}$ de la primera de ellas con lo que: \begin{eqnarray*} x_{1} &=&1-\ln (\gamma _{2}^{\infty })-\ln (x_{2}) \\ x_{2} &=&1-\ln (\gamma _{1}^{\infty })-\ln (x_{1}) \end{eqnarray*} por lo que llamando \[ \mathbf{g}(\mathbf{x})=\left( \begin{array}{c} g_{1}(x_{1},x_{2}) \\ g_{2}(x_{1},x_{2}) \end{array} \right)=\left( \begin{array}{c} 1-\ln (\gamma _{2}^{\infty })-\ln (x_{2}) \\ 1-\ln (\gamma _{1}^{\infty })-\ln (x_{1}) \end{array} \right) \] puede intentarse el esquema iterativo: \[ \dis \mathbf{x}^{(i+1)}=\mathbf{g}\left( \mathbf{x}^{(i)}\right) =\left( \begin{array}{c} g_{1}\left( x_{1}^{(i)},x_{2}^{(i)}\right) \\ [0.2cm] g_{2}\left( x_{1}^{(i)},x_{2}^{(i)}\right) \end{array} \right) =\dis \left( \begin{array}{c} 1-\ln (\gamma _{2}^{\infty })-\ln \left( x_{2}^{(i)}\right) \\ [0.2cm] 1-\ln (\gamma _{1}^{\infty })-\ln \left( x_{1}^{(i)}\right) \end{array} \right) \] Obs\'{e}rvese que \[ \dis \left[ \mathbf{J}_{\mathbf{g}}(\mathbf{x})\right] =\dis \left[ \begin{array}{rr} 0 & -\frac{1}{x_{2}} \\ [0.2cm] -\frac{1}{x_{1}} & 0 \end{array} \right] \] por lo que sus valores propios ser\'{a}n: \[ \sqrt{\frac{1}{x_{1} x_{2}}} \] lo que nos indica que si $\dis \left| \frac{1}{x_{1}x_{2}}\right| \geq 1$ la convergencia del m\'{e}todo no estar\'{a} asegurada (puesto que el valor de toda norma matricial siempre es superior al radio espectral de la matriz). En efecto, si con estas funciones inicializamos el m\'{e}todo de aproximaciones sucesivas se van obteniendo, a partir de $% x_{1}^{(0)}=x_{2}^{(0)}=1,$ los valores siguientes: $$ x_{1}^{(1)}=x_{2}^{(1)}=0.912905...,\quad x_{1}^{(2)}=x_{2}^{(2)}=1.00402...,\quad x_{1}^{(3)}=x_{2}^{(3)}=0.90888..., $$ $$ x_{1}^{(4)}=x_{2}^{(4)}=1.00844...,\quad x_{1}^{(5)}=x_{2}^{(5)}=0.90449...,\quad x_{1}^{(6)}=x_{2}^{(6)}=1.013279..., $$ $$ ......... , \quad x_{1}^{(59)}=x_{2}^{(59)}=0.1758157...,\quad x_{1}^{(60)}=x_{2}^{(60)}=2.65122..., $$ sucesi\'{o}n de vectores en la que sus componentes forman sucesiones oscilantes que divergen. Por tanto esta elecci\'{o}n de la funci\'{o}n $% \mathbf{g}(\mathbf{x})$ no es adecuada para la resoluci\'{o}n del sistema de ecuaciones. Puede observarse que para los valores que se van obteniendo, el radio espectral de la matriz jacobiana va tomando valores mayores que 1 (para los vectores en que sus componentes son menores que 1) y menores que 1 (para los vectores en que sus componentes son mayores que 1). Por tanto ninguno de los teoremas anteriores nos garantiza la convergencia. En su lugar puede procederse de la forma siguiente: \[ \dis \left( \begin{array}{c} \ln (\gamma _{1}^{\infty })=1-\ln (x_{1})-x_{2} \\ [0.2cm] \ln (\gamma _{2}^{\infty })=1-\ln (x_{2})-x_{1} \end{array} \right) \Longleftrightarrow \] \[ \dis \Longleftrightarrow \left( \begin{array}{c} \alpha x_{1}=1+\alpha x_{1}-\ln (\gamma _{1}^{\infty })-\ln (x_{1})-x_{2} \\ [0.2cm] \alpha x_{2}=1+\alpha x_{2}-\ln (\gamma _{2}^{\infty })-\ln (x_{2})-x_{1} \end{array} \right) \Longleftrightarrow \] $$ \Longleftrightarrow \dis \left( \begin{array}{c} x_{1}=g_{1}(x_{1},x_{2})=\frac{1}{\alpha } (1+\alpha x_{1}-\ln (\gamma _{1}^{\infty })-\ln (x_{1})-x_{2}) \\ [0.2cm] x_{2}=g_{2}(x_{1},x_{2})=\frac{1}{\alpha } (1+\alpha x_{2}-\ln (\gamma _{2}^{\infty })-\ln (x_{2})-x_{1}) \end{array} \right) $$ Con esta nueva forma de proceder la matriz Jacobiana ser\'{a}: \[ \dis \left[ \mathbf{J}_{\mathbf{g}}(\mathbf{x})\right] =\frac{1}{\alpha } \left[ \begin{array}{rr} \left( \alpha -\frac{1}{x_{1}}\right) & -1 \\ -1 & \left( \alpha -\frac{1}{x_{2}}\right) \end{array} \right] \] La norma-1 de la matriz Jacobiana ser\'{a} por tanto, \[ \dis \left\| \left[ \mathbf{J}_{\mathbf{g}}(\mathbf{x})\right] \right\| _{1}=% \frac{1}{\alpha } {M\acute{a}x}\left\{ \left| \alpha -% \frac{1}{x_{1}}\right| +1,\left| \alpha -\frac{1}{x_{2}}\right| +1\right\} \] Restringi\'{e}ndonos a valores de $\alpha $ positivos, para que $\frac{1}{% \alpha } (\left| \alpha -\frac{1}{x}\right| +1)$ sea inferior a 1 se debe verificar que \[ \left| \alpha -\frac{1}{x}\right| +1<\alpha \Longrightarrow x<1 \] lo que asegura que $\left\| \left[ \mathbf{J}_{\mathbf{g}}(\mathbf{x}% )\right] \right\| _{1}$ es menor que 1 siempre que \[ x_{1}<1\;\;\;\;\;\text{y }\;\;\;\;x_{2}<1 \] Con ello puede darse a $\alpha $ un valor que nos proporcione dominios suficientemente amplios para obtener una buena convergencia. Por ejemplo, si a $\alpha $ le asignamos el valor 2, admitiendo en el caso a) la igualdad de valores para las soluciones $x_{1}^{*}$ y para $x_{2}^{*}$ puesto que responden a la misma ecuaci\'{o}n, se tiene que si $x\in [0.639,1]$ las im\'{a}genes de $g_{i}(x,x)$ (i=1, 2) pertenecen al intervalo $[0.95,1]$ $% \subset $ $[0.639,1]$. Por tanto si ambas variables se toman con el mismo valor en el intervalo $[0.639,1-\varepsilon ]$ (siendo $\varepsilon $ tan peque\~{n}o como se desee) la convergencia queda asegurada. As\'{\i} partiendo ahora de $x_{1}^{(0)}=x_{2}^{(0)}=1$ se tiene que: $$ x_{1}^{(1)}=x_{2}^{(1)}=0.9564526645....,\qquad x_{1}^{(2)}=x_{2}^{(2)}=0.9569409865....., $$ $$ x_{1}^{(3)}=x_{2}^{(3)}=0.956929935...,\qquad x_{1}^{(4)}=x_{2}^{(4)}=0.9569301837..., $$ $$ x_{1}^{(5)}=x_{2}^{(5)}=0.9569301781...,x_{1}^{(6)}=x_{2}^{(6)}= 0.9569301782... $$ por lo que $x_{1}^{*}=x_{2}^{*}\approx 0.956930178.$ \es \underline{Caso b)}: En este caso el sistema a resolver ser\'{a}: \begin{eqnarray*} \ln (7.20) &=&1-\ln (x_{1})-x_{2} \\ \ln (2.74) &=&1-\ln (x_{2})-x_{1} \end{eqnarray*} de donde $$ \dis \left( \begin{array}{c} x_{1}=g_{1}(x_{1},x_{2})=\frac{1}{\alpha } (1+\alpha x_{1}-\ln (7.20)-\ln (x_{1})-x_{2}) \\ [0.2cm] x_{2}=g_{2}(x_{1},x_{2})=\frac{1}{\alpha } (1+\alpha x_{2}-\ln (2.74)-\ln (x_{2})-x_{1}) \end{array} \right) $$ Tomando para $\alpha $ el valor $4$ (dejamos al lector la justificaci\'{o}n de qu\'{e} valores ser\'{\i}an ad\-mi\-si\-bles para este par\'{a}metro) el esquema iterativo a seguir se reduce a: \[ x_{1}^{(i+1)}=\frac{1}{4} (1+4 x_{1}^{(i)}-\ln (7.20)-\ln (x_{1}^{(i)})-x_{2}^{(i)}) \] \[ x_{2}^{(i+1)}=\frac{1}{4} (1+4 x_{2}-\ln (2.74)-\ln (x_{2}^{(i)})-x_{1}^{(i)}) \] por lo que comenzando con los valores $x_{1}^{(0)}=x_{2}^{(0)}=0.956$ (aproximaci\'{o}n de los hallados en el caso a)) se tienen los vectores: $$ \mathbf{x}^{(1)}=\left( \begin{array}{c} 0.484729 \\ 0.726260 \end{array} \right) \rightarrow \mathbf{x}^{(2)}=\left( \begin{array}{c} 0.240685 \\ 0.683050 \end{array} \right) \rightarrow \mathbf{x}^{(3)}=\left( \begin{array}{c} 0.182469 \\ 0.716186 \end{array} \right) \rightarrow $$ $$ \rightarrow \mathbf{x}^{(4)}=\left( \begin{array}{c} 0.185196 \\ 0.752033 \end{array} \right) \rightarrow \mathbf{x}^{(5)}=\left( \begin{array}{c} 0.175253 \\ 0.774988 \end{array} \right) \rightarrow .....\rightarrow $$ $$ \rightarrow \mathbf{x}^{(45)}=\left( \begin{array}{c} 0.162447 \\ 0.843320 \end{array} \right) \rightarrow \mathbf{x}^{(46)}=\left( \begin{array}{c} 0.162447 \\ 0.843321 \end{array} \right) $$ momento en el que detenemos el proceso iterativo al verificarse que la norma del vector diferencia entre las dos \'{u}ltimas aproximaciones es inferior a 10$^{-6}.$ Como puede apreciarse, con la funci\'{o}n vectorial: \[ \mathbf{g}(x_{1},x_{2})=\left( \begin{array}{c} \frac{1}{4} (1+4 x_{1}-\ln (7.20)-\ln (x_{1})-x_{2}) \\ [0.2cm] \frac{1}{4} (1+4 x_{2}-\ln (2.74)-\ln (x_{2})-x_{1}) \end{array} \right) \] el m\'{e}todo de aproximaciones sucesivas nos ha conducido a la soluci\'{o}n buscada pero en un n\'{u}mero relativamente elevado de iteraciones. Conocida la soluci\'{o}n, podemos comprobar (a posteriori) que en ella la norma-1 de la matriz Jacobiana toma un valor de $0.9535$ es decir relativamente pr\'{o}ximo a 1. Ello nos puede hacer pensar que quiz\'{a}s otras formas de determinar la funci\'{o}n $\mathbf{g}(\mathbf{x})$ podr\'{\i}an ser m\'{a}s ventajosas. En efecto, las ecuaciones dadas pueden manipularse de la forma siguiente: $$ \dis \left( \begin{array}{c} \ln (\gamma _{1}^{\infty })=1-\ln (x_{1})-x_{2} \\ [0.2cm] \ln (\gamma _{2}^{\infty })=1-\ln (x_{2})-x_{1} \end{array} \right) \dis \Leftrightarrow \left( \begin{array}{c} 0=\ln (e)-(\ln (\gamma _{1}^{\infty })+\ln (x_{1}))-x_{2} \\ [0.2cm] 0=\ln (e)-(\ln (\gamma _{2}^{\infty })+\ln (x_{2}))-x_{1} \end{array} \right) \Leftrightarrow $$ \[ \Leftrightarrow \left( \begin{array}{c} 0=\ln \left( \frac{e}{\gamma _{1}^{\infty } x_{1}}\right) -x_{2} \\ [0.2cm] 0=\ln \left( \frac{e}{\gamma _{2}^{\infty } x_{2}}\right) -x_{1} \end{array} \right) \Leftrightarrow \left( \begin{array}{c} 1=\frac{e}{\gamma _{1}^{\infty } x_{1}}.e^{-x_{2}} \\ [0.2cm] 1=\frac{e}{\gamma _{2}^{\infty } x_{2}}.e^{-x_{1}} \end{array} \right) \Leftrightarrow \] \[ \Leftrightarrow \left( \begin{array}{c} x_{1}=g_{1}(x_{1},x_{2})=\frac{1}{\gamma _{1}^{\infty } e^{(x_{2}-1)}} \\ [0.2cm] x_{2}=g_{2}(x_{1},x_{2})=\frac{1}{\gamma _{2}^{\infty } e^{(x_{1}-1)}} \end{array} \right) \] Con ello la matriz Jacobiana ahora ser\'{a}: \[ \left[ \mathbf{J}_{\mathbf{g}}(\mathbf{x})\right] =\left[ \begin{array}{rr} 0 & \frac{-1}{\gamma _{2}^{\infty } e^{(x_{1}-1)}} \\ [0.2cm] \frac{-1}{\gamma _{1}^{\infty } e^{(x_{2}-1)}} & 0 \end{array} \right] \] por lo que en el punto fijo de la aplicaci\'{o}n $\mathbf{g}(\mathbf{x})$ tomar\'{a} la expresi\'{o}n: \[ \left[ \mathbf{J}_{\mathbf{g}}(\mathbf{x}^{*})\right] =\left[ \begin{array}{rr} 0 & \frac{-1}{\gamma _{2}^{\infty } e^{(x_{1}^{*}-1)}} \\ [0.2cm] \frac{-1}{\gamma _{1}^{\infty } e^{(x_{2}^{*}-1)}} & 0 \end{array} \right] \] que sustiyuyendo los valores correspondientes a este caso se convierte en: \[ \left[ \mathbf{J}_{\mathbf{g}}(\mathbf{x}^{*})\right] =\left[ \begin{array}{rr} 0 & -0.427 \\ [0.2cm] -0.321 & 0 \end{array} \right] \] por lo que la norma-1 de la matriz jacobiana en la soluci\'{o}n es $0.427$ valor inferior al que obtuvimos antes y que demuestra que se tendr\'{a} una mayor velocidad de convergencia (al menos en un entorno de la ra\'{\i}z). En efecto, aplicando el esquema iterativo: \[ \dis \left( \begin{array}{c} \dis x_{1}^{(i+1)}=\frac{1}{\gamma _{1}^{\infty } e^{(x_{2}^{(i)}-1)}} \\ [0.2cm] \dis x_{2}^{(i+1)}=\frac{1}{\gamma _{2}^{\infty } e^{(x_{1}^{(i)}-1)}} \end{array} \right) \] a partir de los valores: $x_{1}^{(0)}=x_{2}^{(0)}=0.956$ (aproximaci\'{o}n de los hallados en el caso a)) se tienen los vectores: $$ \dis \mathbf{x}^{(1)}=\left( \begin{array}{c} 0.145136 \\ [0.2cm] 0.381380 \end{array} \right) \rightarrow \mathbf{x}^{(2)}=\left( \begin{array}{c} 0.257828 \\ [0.2cm] 0.858049 \end{array} \right) \rightarrow \mathbf{x}^{(3)}=\left\{ \begin{array}{c} 0.160072 \\ [0.2cm] 0.766603 \end{array} \right\} \rightarrow $$ $$ \dis \rightarrow \mathbf{x}^{(4)}=\left( \begin{array}{c} 0.175400 \\ [0.2cm] 0.845328 \end{array} \right) \rightarrow \mathbf{x}^{(5)}=\left( \begin{array}{c} 0.162121 \\ [0.2cm] 0.832470 \end{array} \right) \rightarrow .....\rightarrow $$ $$ \dis \rightarrow \mathbf{x}^{(15)}=\left( \begin{array}{c} 0.162447 \\ [0.2cm] 0.843323 \end{array} \right) \rightarrow \mathbf{x}^{(16)}=\left( \begin{array}{c} 0.162447 \\ [0.2cm] 0.843323 \end{array} \right) $$ deteni\'{e}ndose el proceso iterativo en la 16${{}^a}$ iteraci\'{o}n al ser el valor de la norma-1 del vector diferencia entre las aproximaciones de las dos \'{u}ltimas iteraciones inferior a 10$^{-6}$ y ser el valor de $$ \dis \left( \begin{array}{c} 1-\ln (7.2)-\ln (0.162447)-0.843323 \\ [0.2cm] \;1-\ln (2.74)-\ln (0.843323)-0.162447 \end{array} \right) =\left( \begin{array}{c} -5.\,42\times 10^{-7} \\ [0.2cm] 3.\,19\times 10^{-7} \end{array} \right) $$ por tanto, tambi\'{e}n inferior (en norma-1) a $10^{-6}.$ \es A\'{u}n podr\'{\i}a mejorarse la velocidad de convergencia en este caso modificando el esquema iterativo seg\'{u}n la variante del m\'{e}todo que se presenta a continuaci\'{o}n. \subsubsection{Una variante del m\'{e}todo de aproximaciones sucesivas} En el m\'{e}todo de aproximaciones sucesivas que se ha descrito anteriormente se sigue el esquema iterativo: \[ \left( \begin{array}{c} x_{1}^{(i+1)}=g_{1}(x_{1}^{(i)},x_{2}^{(i)},....,x_{j-1}^{(i)},x_{j}^{(i)},x_{j+1}^{(i)},...,x_{n}^{(i)}) \\ [0.2cm] x_{2}^{(i+1)}=g_{2}(x_{1}^{(i)},x_{2}^{(i)},....,x_{j-1}^{(i)},x_{j}^{(i)},x_{j+1}^{(i)},...,x_{n}^{(i)}) \\[0.2cm] .............................. \\ [0.2cm] x_{j}^{(i+1)}=g_{j}(x_{1}^{(i)},x_{2}^{(i)},....,x_{j-1}^{(i)},x_{j}^{(i)},x_{j+1}^{(i)},...,x_{n}^{(i)}) \\ [0.2cm] ................ \\ [0.2cm] x_{n}^{(i+1)}=g_{n}(x_{1}^{(i)},x_{2}^{(i)},....,x_{j-1}^{(i)},x_{j}^{(i)},x_{j+1}^{(i)},...,x_{n}^{(i)}) \end{array} \right) \qquad (i=0,1,...) \] es decir, que para la estimaci\'{o}n del valor de la variable $x_{j}^{(i+1)}$ se utilizan los valores obtenidos en la iteraci\'{o}n anterior para todas las variables que se est\'{a}n aproximando. No obstante, en ese momento ya se dispone de los valores de $% x_{1}^{(i+1)},x_{2}^{(i+1)},....,x_{j-1}^{(i+1)}$ que, si el m\'{e}todo posee buenas propiedades de convergencia puede pensarse que est\'{e}n m\'{a}s pr\'{o}ximos a los de la soluci\'{o}n que los de la iteraci\'{o}n anterior. En este sentido, en ocasiones, se sustituye el esquema iterativo antes considerado por el siguiente: \[ \left( \begin{array}{c} x_{1}^{(i+1)}=g_{1}(x_{1}^{(i)},x_{2}^{(i)},....,x_{j-1}^{(i)},x_{j}^{(i)},x_{j+1}^{(i)},...,x_{n}^{(i)}) \\ [0.2cm] x_{2}^{(i+1)}=g_{2}(x_{1}^{(i+1)},x_{2}^{(i)},....,x_{j-1}^{(i)},x_{j}^{(i)},x_{j+1}^{(i)},...,x_{n}^{(i)}) \\ [0.2cm] .............................. \\ [0.2cm] x_{j}^{(i+1)}=g_{j}(x_{1}^{(i+1)},x_{2}^{(i+1)},....,x_{j-1}^{(i+1)},x_{j}^{(i)},x_{j+1}^{(i)},...,x_{n}^{(i)}) \\ [0.2cm] ................ \\ [0.2cm] x_{n}^{(i+1)}=g_{n}(x_{1}^{(i+1)},x_{2}^{(i+1)},....,x_{j-1}^{(i+1)},x_{j}^{(i+1)},x_{j+1}^{(i+1)},...,x_{n}^{(i)}) \end{array} \right) \;\;\;\;\;(i=0,1,...) \] Por la analog\'{\i}a entre esta forma de proceder y la que se sigue en el m\'{e}todo de Gauss-Seidel para la resoluci\'{o}n de sistemas algebraicos de ecuaciones lineales este m\'{e}todo se conoce, en algunos textos, con el nombre de m\'{e}todo de Gauss-Seidel, aunque m\'{a}s adelante, como variante del m\'{e}todo de Newton, presentaremos otro m\'{e}todo tambi\'{e}n designado con este nombre. Hemos de advertir no obstante que, pese a lo ``razonable'' que parece el razonamiento seguido para derivarlo, no siempre funciona mejor esta variante del m\'{e}todo que el m\'{e}todo cl\'{a}sico de aproximaciones sucesivas pues con \'{e}l se puede estar modificando la funci\'{o}n $\mathbf{g}(% \mathbf{x})$ de la iteraci\'{o}n empeorando su constante de Lipschitz. Un ejemplo, en el que se acelera la convergencia actuando con la variante que acabamos de presentar, es el del problema propuesto por el Pr. B. Coto que conduce al sistema utilizado en el ejemplo antes resuelto. En efecto en ese caso el m\'{e}todo de aproximaciones sucesivas nos conduc\'{i}a al esquema: $$ \left( \begin{array}{c} x_{1}^{(i+1)}=\dis \frac{1}{\gamma _{1}^{\infty } e^{(x_{2}^{(i)}-1)}} \\ [0.2cm] x_{2}^{(i+1)}=\dis \frac{1}{\gamma _{2}^{\infty } e^{(x_{1}^{(i)}-1)}} \end{array} \right) \Leftrightarrow \dis \left( \begin{array}{c} x_{1}^{(i+1)}=\dis \frac{1}{\gamma _{1}^{\infty } e^{\left( \frac{1}{\gamma_{2}^{\infty } e^{(x_{1}^{(i-1)}-1)}}-1\right) }} \\ [0.5cm] x_{2}^{(i+1)}=\dis \frac{1}{\gamma _{2}^{\infty } e^{\left( \frac{1}{\gamma_{1}^{\infty } e^{(x_{2}^{(i-1)}-1)}}-1\right) }} \end{array} \right) $$ en el que se puede apreciar que el valor de cada inc\'{o}gnita se va aproximando con el que se obtuvo para la aproximaci\'{o}n de dicha inc\'{o}gnita dos iteraciones antes. Parece que de esta forma se est\'{a}n generando, para cada variable, dos sucesiones independientes que convergen ambas en el mismo punto. Por ello puede procederse seg\'{u}n el esquema: $$ \dis \left( \begin{array}{c} x_{1}^{(i+1)}=\dis \frac{1}{\gamma _{1}^{\infty } e^{(x_{2}^{(i)}-1)}} \\ [0.2cm] x_{2}^{(i+1)}=\dis \frac{1}{\gamma _{2}^{\infty } e^{(x_{1}^{(i+1)}-1)}} \end{array} \right) \Leftrightarrow \left( \begin{array}{c} x_{1}^{(i+1)}=\dis \frac{1}{\gamma _{1}^{\infty } e^{\left( \frac{1}{\gamma _{2}^{\infty } e^{(x_{1}^{(i)}-1)}}-1\right) }} \\ [0.5cm] x_{2}^{(i+1)}=\dis \frac{1}{\gamma _{2}^{\infty } e^{\left( \frac{1}{\gamma _{1}^{\infty } e^{(x_{2}^{(i)}-1)}}-1\right) }} \end{array} \right) $$ Aplicado este esquema iterativo a nuestro problema en cuesti\'{o}n, inicializado con los valores $x_{1}^{(0)}=x_{2}^{(0)}=0.956$ se tienen los vectores: $$ \dis x^{(1)}=\left( \begin{array}{c} 0.145136 \\ 0.858049 \end{array} \right) \rightarrow x^{(2)}=\left( \begin{array}{c} 0.160072 \\ 0.845328 \end{array} \right) \rightarrow x^{(3)}=\left( \begin{array}{c} 0.162121 \\ 0.843598 \end{array} \right) \rightarrow $$ $$ \dis \rightarrow x^{(4)}=\left( \begin{array}{c} 0.162402 \\ 0.843361 \end{array} \right) \rightarrow x^{(5)}=\left( \begin{array}{c} 0.162441 \\ 0.843325 \end{array} \right) \rightarrow x^{(6)}=\left( \begin{array}{c} 0.162446 \\ 0.843324 \end{array} \right) \rightarrow $$ $$ \dis \rightarrow x^{(7)}=\left( \begin{array}{c} 0.162447 \\ 0.843323 \end{array} \right) \rightarrow x^{(8)}=\left( \begin{array}{c} 0.162447 \\ 0.843323 \end{array} \right) $$ habi\'{e}ndose obtenido la misma soluci\'{o}n en la mitad de iteraciones que antes. \subsection{El m\'{e}todo de Newton-Raphson para sistemas de n ecuaciones no lineales.} Consid\'{e}rese nuevamente el sistema de n ecuaciones no lineales con n inc\'{o}gnitas representado por $\hspace{0.8cm}\hspace{0.8cm}\hspace{0.8cm}\mathbf{f}(\mathbf{x})=\mathbf{0}$ $\Longleftrightarrow \left( \begin{array}{c} f_{1}(x_{1},x_{2},....,x_{n})=0 \\ f_{2}(x_{1},x_{2},....,x_{n})=0 \\ ............................ \\ f_{n}(x_{1},x_{2},....,x_{n})=0 \end{array} \right) $ Al igual que se hizo en el caso de una variable, supongamos que en un dominio cerrado $D\subset \R^{n}$ $\mathbf{f}(\mathbf{x})$ es una funci\'{o}n de clase ($C^{2}(D))^{n}.$ Y supongamos adem\'{a}s que la ecuaci\'{o}n anterior admite una soluci\'{o}n $\mathbf{x}^{*}$ en el dominio $D.$ Para cualquier otro vector $\mathbf{x}^{(0)}\in D$ , denotando por $% \mathbf{\delta x}$ al vector tal que $\mathbf{x}^{*}=\mathbf{x}^{(0)}+% \mathbf{\delta x},$ la expresi\'{o}n del desarrollo en serie de Taylor nos permitir\'{\i}a afirmar, para cada una de las ecuaciones del sistema, que existen los valores $\theta _{j}\in [0,1]$ $\;(j=1,$ $2,..,$ $n)$ tales que: \begin{eqnarray*} 0 &=&f_{j}(\mathbf{x}^{*})=f(\mathbf{x}^{(0)}+\mathbf{\delta x})= \\ &=&f_{j}(\mathbf{x}^{(0)})+\left\{ \nabla f_{j}(\mathbf{x}^{(0)})\right\} ^{T} \mathbf{\delta x}+\frac{1}{2} \left\{ \mathbf{\delta x}% \right\} ^{T} \left[ \mathbf{H}_{f_{j}}(\mathbf{x}^{(0)}+\theta _{j} \mathbf{\delta x})\right] \mathbf{\delta x} \end{eqnarray*} donde $\left[ H_{f_{j}}(\mathbf{x})\right] $ es la matriz hessiana de la funci\'{o}n $f_{j}(\mathbf{x}).$ Si conocido $\mathbf{x}^{(0)}$ se fuese capaz de determinar $\mathbf{\delta x% }$ resolviendo el sistema formado para $j = 1, 2, .., n$ por las ecuaciones: \[ f_{j}(\mathbf{x}^{(0)})+\left\{ \nabla f_{j}(\mathbf{x}^{(0)})\right\} ^{T} \mathbf{\delta x}+\frac{1}{2} \left\{ \mathbf{\delta x}% \right\} ^{T} \left[ \mathbf{H}_{f_{j}}(\mathbf{x}^{(0)}+\theta _{j} \mathbf{\delta x})\right] \mathbf{\delta x}=0 \] podr\'{\i}a determinarse $\mathbf{x}^{*}$ como $\mathbf{x}^{*}=\mathbf{x}% ^{(0)}+\mathbf{\delta x}.$ Pero para resolver este sistema primero deber\'{\i}amos conocer los valores de $\theta _{j}$ (lo cual no es obvio) y, una vez conocidos, resolver un sistema, en general, no lineal pues obs\'{e}rvese que $\mathbf{\delta x}$ interviene en la expresi\'{o}n de las matrices hessianas $\left[ H_{f_{j}}(\mathbf{x}^{(0)}+\theta _{j} \mathbf{\delta x})\right] .$ Por tanto, salvo en situaciones muy particulares, no se ganar\'{i}a gran cosa reemplazando el problema de resolver $\mathbf{f}(\mathbf{x})=\mathbf{0}$ por el de resolver el sistema anterior. \es El m\'{e}todo de Newton-Raphson (o m\'{e}todo de linealizaci\'{o}n de Newton) se sustenta en simplificar las expresiones anteriores linealiz\'{a}ndolas. Para ello considera que si se est\'{a} suficientemente cerca de la soluci\'{o}n (es decir, si $||\mathbf{\delta x}||$ es suficientemente peque\~{n}o) los t\'{e}rminos $$ \dis \left( \frac{1}{2} \left\{ \mathbf{\delta x}\right\} ^{T} \left[ \mathbf{H}_{f_{j}}(% \mathbf{x}^{(0)}+\theta _{j} \mathbf{\delta x})\right] \mathbf{% \delta x}\right) $$ podr\'{a}n despreciarse frente a los otros t\'{e}rminos de cada ecuaci\'{o}n del sistema. Por ello en este m\'{e}todo se resuelve el sistema \textbf{lineal}: \[ \mathbf{f}(\mathbf{x}^{(0)})+\left[ \mathbf{J}_{\mathbf{f}}(\mathbf{x}% ^{(0)})\right] \mathbf{\Delta x}^{(0)}=0 \] del que se obtiene que \[ \mathbf{\Delta x}^{(0)}=-\left[ \mathbf{J}_{\mathbf{f}}(\mathbf{x}% ^{(0)})\right] ^{-1} \mathbf{f}(\mathbf{x}^{(0)}) \] Obviamente, al ser diferente el sistema linealizado que el proporcionado por el desarrollo de Taylor, se tendr\'{a} que $\mathbf{\Delta x}^{(0)}\neq \mathbf{\delta x}$ y por tanto \[ \mathbf{x}^{*}=\mathbf{x}^{(0)}+\mathbf{\delta x}\neq \mathbf{x}^{(1)}=% \mathbf{x}^{(0)}+\mathbf{\Delta x}^{(0)} \] De una forma intuitiva (que despu\'{e}s deberemos precisar cu\'{a}ndo es correcta) puede pensarse que aunque $\mathbf{x}^{(1)}$ sea diferente de $% \mathbf{x}^{*}$ ser\'{a} un vector m\'{a}s pr\'{o}ximo a $\mathbf{x}^{*}$ que $\mathbf{x}^{(0)}$ pues lo hemos obtenido ``aproximando'' el valor $% \mathbf{\delta x}$ que nos llevaba de $\mathbf{x}^{(0)}$ a $\mathbf{x}^{*}.$ Con ello el m\'{e}todo de Newton-Raphson propone repetir este proceso de forma recursiva hasta estar lo suficientemente cercanos a la soluci\'{o}n buscada. M\'{a}s concretamente el m\'{e}todo de Newton-Raphson consiste en: \es \hspace{2cm}Dado un vector $\mathbf{x}^{(0)},$ generar la sucesi\'{o}n: \es $$ \dis \left\{ \mathbf{x}% ^{(i+1)}=\mathbf{x}^{(i)}-\left[ \mathbf{J}_{\mathbf{f}}(\mathbf{x}% ^{(i)})\right] ^{-1} \mathbf{f}(\mathbf{x}^{(i)})\right\} _{i=0}^{\infty }. $$ Sobre este m\'{e}todo, en primer lugar, puede observarse que si denotamos por: \[ \mathbf{g}(\mathbf{x})=\mathbf{x}-\left[ \mathbf{J}_{\mathbf{f}}(\mathbf{x}% )\right] ^{-1} \mathbf{f}(\mathbf{x}) \] estamos en presencia de un caso particular del m\'{e}todo de aproximaciones sucesivas antes contemplado en el apartado 1.4.1.. En otros t\'{e}rminos, se tiene la siguiente propiedad: \beprop Si la funci\'{o}n $\mathbf{g}(\mathbf{x})=\mathbf{x}-\left[ \mathbf{J}_{% \mathbf{f}}(\mathbf{x})\right] ^{-1} \mathbf{f}(\mathbf{x})$ es, para alguna norma matricial, una contracci\'{o}n definida en $D$ la sucesi\'{o}n dada por $$ \dis \left\{ \mathbf{x}^{(i+1)}=\mathbf{x}^{(i)}-\left[ \mathbf{J}_{% \mathbf{f}}(\mathbf{x}^{(i)})\right] ^{-1} \mathbf{f}(\mathbf{x}% ^{(i)})\right\} _{i=0}^{\infty } $$ obtenida a partir de cualquier vector $% \mathbf{x}^{(0)}\in D$ converge hacia la \'{u}nica soluci\'{o}n de la ecuaci\'{o}n $\mathbf{f}(\mathbf{x})=\mathbf{0}$ en $D.$ \enprop \underline{Demostraci\'{o}n:} Es un caso particular de los teoremas de convergencia del m\'{e}todo de aproximaciones sucesivas. \hspace{10cm}c.q.d. Del teorema anterior, por analog\'{\i}a a lo realizado en el caso de una \'{u}nica ecuaci\'{o}n no lineal, podr\'{\i}an derivarse teoremas de convergencia que actuaran sobre las primeras y segundas derivadas parciales de las componentes de la aplicaci\'{o}n vectorial $\mathbf{f}(\mathbf{x}).$ Dejamos al lector el desarrollo de tales teoremas y pasamos a enunciar algunos otros en los que las hip\'{o}tesis se realizan directamente sobre la propia funci\'{o}n vectorial $\mathbf{f}(\mathbf{x})$ y su matriz jacobiana y que pueden ser de m\'{a}s f\'{a}cil aplicaci\'{o}n al an\'{a}lisis de la convergencia del m\'{e}todo. Previamente a la demostraci\'{o}n de dichos teoremas necesitaremos introducir el siguiente lema: \begin{lema} Siendo $\mathbf{f}:D\rightarrow D$ una aplicaci\'{o}n de clase $% (C^{1}(D))^{n}$ y siendo $D$ un cerrado de $\R^{n},$ si existe una constante estr\'{\i}ctamente positiva $\alpha $, tal que para alguna norma vectorial y para la norma matricial a ella subordinada se verifique: \[ \left\| \left[ \mathbf{J}_{\mathbf{f}}(\mathbf{x})\right] -\left[ \mathbf{J}% _{\mathbf{f}}(\mathbf{y})\right] \right\| \leq \alpha \left\| \mathbf{x% }-\mathbf{y}\right\| \;\;\;\;\;\;\;\;\forall \mathbf{x},\mathbf{y}\in D \] entonces se verifica tambi\'{e}n que: \[ \left\| \mathbf{f}(\mathbf{x})-\mathbf{f}(\mathbf{y})-\mathbf{J}_{\mathbf{f}% }(\mathbf{y}) (\mathbf{x}-\mathbf{y})\right\| \leq \frac{\alpha }{2}% \left\| \mathbf{x}-\mathbf{y}\right\| ^{2}\;\;\;\;\;\;\;\;\forall \mathbf{x},\mathbf{y}\in D \] \end{lema} \underline{Demostraci\'{o}n:} Siendo $\mathbf{x}$ e $\mathbf{y}$ dos vectores gen\'{e}ricos de $D$ denotemos por $\mathbf{q}(t)$ a la funci\'{o}n vectorial dependiente de un \'{u}nico par\'{a}metro real definida por: \[ \mathbf{q}(t)=\mathbf{f}(\mathbf{y}+t (\mathbf{x}-\mathbf{y})) \] Esta funci\'{o}n, habida cuenta de las hip\'{o}tesis realizadas sobre $% \mathbf{f}$ es derivable $\forall t\in [0,1].$ As\'{\i}, denotando por $% \mathbf{z}=\mathbf{y}+t (\mathbf{x}-\mathbf{y})$ se tiene que: \[ \mathbf{q}^{\prime }(t)=\frac{d\mathbf{q}}{dt}(t)={\lim }_{\Delta t\rightarrow 0}\frac{\mathbf{f}(\mathbf{y}+(t+\Delta t) (\mathbf{% x}-\mathbf{y}))-\mathbf{f}(\mathbf{y}+t (\mathbf{x}-\mathbf{y}))}{% \Delta t}= \] \[ ={\lim }_{\Delta t\rightarrow 0}\frac{\mathbf{f}(\mathbf{z}+\Delta t (\mathbf{x}-\mathbf{y}))-\mathbf{f}(\mathbf{z})}{\Delta t}=\left[ \mathbf{J}_{\mathbf{f}}(\mathbf{z})\right] (\mathbf{x}-\mathbf{y}) \] de donde \[ \left\| \mathbf{q}^{\prime }(t)-\mathbf{q}^{\prime }(0)\right\| =\left\| \left[ \left[ \mathbf{J}_{\mathbf{f}}(\mathbf{z})\right] -\left[ \mathbf{J}_{% \mathbf{f}}(\mathbf{y})\right] \right] (\mathbf{x}-\mathbf{y})\right\| \leq \] \[ \leq \left\| \left[ \left[ \mathbf{J}_{\mathbf{f}}(\mathbf{z})\right] -\left[ \mathbf{J}_{\mathbf{f}}(\mathbf{y})\right] \right] \right\| \left\| \mathbf{x}-\mathbf{y}\right\| = \] \[ =\left\| \left[ \left[ \mathbf{J}_{\mathbf{f}}(\mathbf{y+}t\mathbf{ (x-y)})\right] -\left[ \mathbf{J}_{\mathbf{f}}(\mathbf{y})\right] \right] \right\| \left\| \mathbf{x}-\mathbf{y}\right\| \leq \] \[ \leq \alpha t \left\| \mathbf{x}-\mathbf{y}\right\| ^{2} \] Esta desigualdad, a su vez, puede utilizarse en el proceso siguiente: \[ \left\| \mathbf{f}(\mathbf{x})-\mathbf{f}(\mathbf{y})-\mathbf{J}_{\mathbf{f}% }(\mathbf{y}) (\mathbf{x}-\mathbf{y})\right\| =\left\| \mathbf{q}(1)-% \mathbf{q}(0)-\mathbf{q}^{\prime }(0)\right\| = \] \[ =\left\| \int_{0}^{1}(\mathbf{q}^{\prime }(t)-\mathbf{q}^{\prime }(0))dt\right\| \leq \int_{0}^{1}\left\| \mathbf{q}^{\prime }(t)-\mathbf{q}% ^{\prime }(0)\right\| dt\leq \] \[ \leq \int_{0}^{1}\alpha t \left\| \mathbf{x}-\mathbf{y}\right\| ^{2}.t=\frac{\alpha }{2} \left\| \mathbf{x}-\mathbf{y}\right\| ^{2}\; \] \hspace{10cm}c.q.d. \es \beobse El que se verifique la hip\'{o}tesis del lema precedente: \[ \exists \alpha \in \R_{+}\;\;\;/\;\;\left\| \left[ \mathbf{J}_{% \mathbf{f}}(\mathbf{x})\right] -\left[ \mathbf{J}_{\mathbf{f}}(\mathbf{y}% )\right] \right\| \leq \alpha \left\| \mathbf{x}-\mathbf{y}\right\| \;\;\;\;\;\;\;\;\forall \mathbf{x},\mathbf{y}\in D \] se expresa diciendo que la matriz Jacobiana es lipschitciana de raz\'{o}n $\alpha $ en $D$ para la norma $\| \|$. \enobse Con ayuda de este lema puede procederse a presentar y demostrar el si\-guien\-te teorema: \beteor Siendo $D$ un cerrado de $\R^{n}$ y siendo $\mathbf{f}:D\rightarrow D$ una aplicaci\'{o}n de clase $(C^{1}(D))^{n}$ para la que, utilizando alguna norma vectorial y para la norma matricial a ella subordinada, se verifican las dos hip\'{o}tesis siguientes: \begin{itemize} \item[a)] $\exists \alpha \in \R_{+}\;\;/\;\;\left\| \left[ \mathbf{J}_{\mathbf{f}}(\mathbf{x})\right] -\left[ \mathbf{J}_{\mathbf{f}}(% \mathbf{y})\right] \right\| \leq \alpha \left\| \mathbf{x}-\mathbf{y}% \right\| \;\;\;\;\forall \mathbf{x},\mathbf{y}\in D$ \item[b)] $\exists \beta \in \R_{+}\;\;/\;\;\left\| \left[ \mathbf{J}_{\mathbf{f}}(\mathbf{x})\right] ^{-1}\right\| $ $<\beta \;\;\;\;\;\;\;\;\;\forall \mathbf{x}\in D$ \end{itemize} entonces para la sucesi\'{o}n $\left\{ \mathbf{x}^{(i+1)}=\mathbf{x}% ^{(i)}-\left[ \mathbf{J}_{\mathbf{f}}(\mathbf{x}^{(i)})\right] ^{-1} \mathbf{f}(\mathbf{x}^{(i)})\right\} _{i=0}^{\infty }$ obtenida a partir de cualquier vector $\mathbf{x}^{(0)}\in D$ se verifica que: \[ \left\| \mathbf{x}^{(i+1)}-\mathbf{x}^{(i)}\right\| \leq \frac{\alpha \beta }{2} \left\| \mathbf{x}^{(i)}-\mathbf{x}^{(i-1)}\right\| ^{2} \] \enteor \underline{Demostraci\'{o}n:} Se tiene que: \[ \left\| \mathbf{x}^{(i+1)}-\mathbf{x}^{(i)}\right\| =\left\| -\left[ \mathbf{% J}_{\mathbf{f}}\mathbf{(x}^{(i)}\mathbf{)}\right] ^{-1} \mathbf{f}(% \mathbf{x}^{(i)})\right\| \leq \left\| \left[ \mathbf{J}_{\mathbf{f}}\mathbf{% (x}^{(i)}\mathbf{)}\right] ^{-1}\right\| \left\| \mathbf{f}(\mathbf{x}% ^{(i)})\right\| \leq \] \[ \leq \beta \left\| \mathbf{f}(\mathbf{x}^{(i)})\right\| \] y como de: \[ \mathbf{x}^{(i+1)}=\mathbf{x}^{(i)}-\left[ \mathbf{J}_{\mathbf{f}}(\mathbf{x}% ^{(i)})\right] ^{-1} \mathbf{f}(\mathbf{x}^{(i)}) \] se deduce que: \[ \mathbf{f}(\mathbf{x}^{(i)})=-\left[ \mathbf{J}_{\mathbf{f}}(\mathbf{x}% ^{(i)})\right] \left( \mathbf{x}^{(i+1)}-\mathbf{x}^{(i)}\right) \] se tiene, utilizando el lema precedente, que: \[ \left\| \mathbf{x}^{(i+1)}-\mathbf{x}^{(i)}\right\| \leq \beta \left\| \mathbf{f}(\mathbf{x}^{(i)})\right\| = \] \[ =\beta \left\| \mathbf{f}(\mathbf{x}^{(i)})-\mathbf{f}(\mathbf{x}% ^{(i)})-\left[ \mathbf{J}_{\mathbf{f}}(\mathbf{x}^{(i)})\right] \left( \mathbf{x}^{(i+1)}-\mathbf{x}^{(i)}\right) \right\| \leq \] \[ \leq \frac{\alpha \beta }{2} \left\| \mathbf{x}^{(i)}-\mathbf{x}% ^{(i-1)}\right\| ^{2} \] \hspace{10cm}c.q.d. El teorema anterior nos muestra que la relaci\'{o}n entre la norma del vector diferencia entre las aproximaciones halladas en las iteraciones $% (i+1) $ e $i$ es proporcional (con factor $C=\alpha \beta /2$) al cuadrado de la norma del vector diferencia entre las aproximaciones halladas en las iteraciones $i$ e $(i-1).$ Pero por s\'{i} solo este teorema no nos justifica que el m\'{e}todo converja. Simplemente nos indica que si en alg\'{u}n momento $\left\| \mathbf{x}^{(i)}-\mathbf{x}^{(i-1)}\right\| ^{2}<(1/C)$ entonces se habr\'{a} logrado una sucesi\'{o}n de Cauchy y, al estar en un completo, por ello una sucesi\'{o}n convergente. Para acabar de obtener un resultado que garantice la convergencia es necesario imponer m\'{a}s condiciones en el m\'{e}todo. Como por ejemplo las que se recogen en el teorema siguiente que, junto a las hip\'{o}tesis a) y b) del teorema anterior a\~{n}ade una nueva: \beteor Siendo $D$ un cerrado de $\R^{n}$ y siendo $\mathbf{f}:D\rightarrow D$ una aplicaci\'{o}n de clase $(C^{1}(D))^{n}$ para la que, utilizando alguna norma vectorial y para la norma matricial a ella subordinada, se verifican las dos hip\'{o}tesis siguientes: \begin{itemize} \item[a)] $\exists \alpha \in \R_{+}\;\;/\;\;\left\| \left[ \mathbf{J}_{\mathbf{f}}(\mathbf{x})\right] -\left[ \mathbf{J}_{\mathbf{f}}(% \mathbf{y})\right] \right\| \leq \alpha \left\| \mathbf{x}-\mathbf{y}% \right\| \;\;\;\;\forall \mathbf{x},\mathbf{y}\in D$ \item[b)] $\exists \beta \in \R_{+}\;\;/\;\;\left\| \left[ \mathbf{J}_{\mathbf{f}}(\mathbf{x})\right] ^{-1}\right\| $ $<\beta \;\;\;\;\;\;\;\;\;\forall \mathbf{x}\in D$ \end{itemize} entonces para la sucesi\'{o}n $\left\{ \mathbf{x}^{(i+1)}=\mathbf{x}% ^{(i)}-\left[ \mathbf{J}_{\mathbf{f}}(\mathbf{x}^{(i)})\right] ^{-1} \mathbf{f}(\mathbf{x}^{(i)})\right\} _{i=0}^{\infty }$ obtenida a partir de cualquier vector $\mathbf{x}^{(0)}\in D$ para el que se verifique la condici\'{o}n \begin{itemize} \item[c)] $\exists \mu <\frac{2}{\alpha \beta }\in \R% _{+}\;\;/\hspace{0.8cm}\left\| \left[ \mathbf{J}_{\mathbf{f}}(\mathbf{x}% ^{(0)})\right] ^{-1} \mathbf{f}(\mathbf{x}^{(0)})\right\| $ $\leq \mu $ \end{itemize} existe el l\'{\i}mite $\mathbf{x}^{*}$ de la sucesi\'{o}n $\left\{ \mathbf{x}% ^{(i+1)}=\mathbf{x}^{(i)}-\left[ \mathbf{J}_{\mathbf{f}}(\mathbf{x}% ^{(i)})\right] ^{-1} \mathbf{f}(\mathbf{x}^{(i)})\right\} _{i=0}^{\infty }$ que es una ra\'{\i}z del sistema $\mathbf{f}(\mathbf{x})=% \mathbf{0}$ en $D$ y se verifica que: \[ \left\| \mathbf{x}^{(i+1)}-\mathbf{x}^{*}\right\| \leq \frac{r^{2^{i}-1}}{% 1-r^{2^{i}}} \mu \] donde $r=\alpha \beta \mu /2 <1.$ \enteor \underline{Demostraci\'{o}n:} Por aplicaci\'{o}n directa del teorema anterior: \[ \left\| \mathbf{x}^{(i+1)}-\mathbf{x}^{(i)}\right\| \leq \frac{\alpha \beta }{2} \left\| \mathbf{x}^{(i)}-\mathbf{x}^{(i-1)}\right\| ^{2} \] Por recursi\'{o}n, llamando $C=\frac{\alpha \beta }{2}$ se tiene: \[ \left\| \mathbf{x}^{(i+1)}-\mathbf{x}^{(i)}\right\| \leq C \left\| \mathbf{x}^{(i)}-\mathbf{x}^{(i-1)}\right\| ^{2}\leq C^{3} \left\| \mathbf{x}^{(i-1)}-\mathbf{x}^{(i-2)}\right\| ^{4}\leq \] \[ \leq C^{7} \left\| \mathbf{x}^{(i-2)}-\mathbf{x}^{(i-3)}\right\| ^{8}\leq .....\leq C^{2^{i}-1} \left\| \mathbf{x}^{(1)}-\mathbf{x}% ^{(0)}\right\| ^{2^{i}} \] y como \[ \mathbf{x}^{(1)}-\mathbf{x}^{(0)}=\left[ \mathbf{J}_{\mathbf{f}}(\mathbf{x}% ^{(0)})\right] ^{-1} \mathbf{f}(\mathbf{x}^{(0)}) \] utilizando la hip\'{o}tesis c) resultar\'{a} que \[ \left\| \mathbf{x}^{(1)}-\mathbf{x}^{(0)}\right\| ^{2^{i}}\leq \mu ^{2^{i}} \] de donde \[ \left\| \mathbf{x}^{(i+1)}-\mathbf{x}^{(i)}\right\| \leq C^{(2^{i}-1)} \mu ^{2^{i}}=r^{(2^{i}-1)} \mu \] donde se ha denotado por $r$ a: $r=\frac{\alpha \beta \mu }{2}% <1. $ Ello demuestra que, bajo las hip\'{o}tesis del teorema, en la sucesi\'{o}n formada mediante el m\'{e}todo de Newton-Raphson la distancia entre dos vectores consecutivos puede hacerse tan peque\~{n}a como se desee. Por otra parte es claro que se verificar\'{a} que siendo $j$ e $i$ dos \'{\i}ndices tales que $j>i$: \[ \left\| \mathbf{x}^{(j+1)}-\mathbf{x}^{(i)}\right\| \leq \left\| \mathbf{x}% ^{(j+1)}-\mathbf{x}^{(j)}\right\| +\left\| \mathbf{x}^{(j)}-\mathbf{x}% ^{(i)}\right\| \leq \] \[ \leq \left\| \mathbf{x}^{(j+1)}-\mathbf{x}^{(j)}\right\| +\left\| \mathbf{x}% ^{(j)}-\mathbf{x}^{(j-1)}\right\| +\left\| \mathbf{x}^{(j-1)}-\mathbf{x}% ^{(i)}\right\| \leq \] \[ \leq ...\leq \left\| \mathbf{x}^{(j+1)}-\mathbf{x}^{(j)}\right\| +\left\| \mathbf{x}^{(j)}-\mathbf{x}^{(j-1)}\right\| +....+\left\| \mathbf{x}^{(i+1)}-% \mathbf{x}^{(i)}\right\| \leq \] \[ \left\| \mathbf{x}^{(j+1)}-\mathbf{x}^{(i)}\right\| \mu \left( r^{2^{j}-1}+r^{2^{(j-1)}-1}+.....+r^{2^{(i+1)}-1}+r^{2^{i}-1}\right) = \] \[ =\mu r^{-1} \left( r^{2^{j}}+r^{2^{(j-1)}}+.....+r^{2^{(i+1)}}+r^{2^{i}}\right) \] y como para cualquier entero $k$ se tiene que \[ r^{2^{k}}=r^{2^{i} 2^{(k-i)}}=\left( r^{2^{i}}\right) ^{2^{(k-i)}} \] resultar\'{a} \[ \left\| \mathbf{x}^{(j+1)}-\mathbf{x}^{(i)}\right\| \mathbf{\leq }\mu r^{-1} \left( r^{2^{j}}+r^{2^{(j-1)}}+.....+r^{2^{(i+1)}}+r^{2^{i}}\right) = \] \[ =\mu r^{-1} \left( \left( r^{2^{i}}\right) ^{2^{(j-i)}}+\left( r^{2^{i}}\right) ^{2^{(j-i-1)}}+.....+\left( r^{2^{i}}\right) ^{2}+r^{2^{i}}\right) = \] \[ =\mu r^{(2^{i}-1)} \left( 1+r^{2^{i}}+\left( r^{2^{i}}\right) ^{3}+\left( r^{2^{i}}\right) ^{7}+...+\left( r^{2^{i}}\right) ^{2^{(j-i)}-1}\right). \] Puesto que $r<1$ se tiene que: \[ \left\| \mathbf{x}^{(j+1)}-\mathbf{x}^{(i)}\right\| \mathbf{\leq }\mu r^{(2^{i}-1)} \left( 1+r^{2^{i}}+\left( r^{2^{i}}\right) ^{2}+\left( r^{2^{i}}\right) ^{3}+...+\left( r^{2^{i}}\right) ^{(j-i)}\right) = \] \[ =\mu r^{(2^{i}-1)} \left( \frac{1}{1-r^{2^{i}}}-\frac{\left( r^{2^{i}}\right) ^{(j-i+1)}}{1-r^{2^{i}}}\right) \] La desigualdad anterior muestra que, siendo $j>i,$ el valor de $\left\| \mathbf{x}^{(j)}-\mathbf{x}^{(i)}\right\| $ puede hacerse tan peque\~{n}o como se desee con tal de tomar el \'{\i}ndice $i$ suficientemente elevado. Puesto que la sucesi\'{o}n $\left\{ \mathbf{x}^{(i)}\right\} _{j=0}^{\infty }$ es una sucesi\'{o}n de Cauchy y $D$ es un cerrado, \'esta converger\'a hacia un vector $\mathbf{x}^{*}.$ Tomando l\'{\i}mites en la desigualdad anterior resulta adem\'{a}s que: \begin{eqnarray*} \left\| \mathbf{x}^{*}-\mathbf{x}^{(i)}\right\| &=&{\lim }_{j\rightarrow \infty }\left\| \mathbf{x}^{(j+1)}-\mathbf{x}^{(i)}\right\| \leq \\ &\leq &{\lim }_{j\rightarrow \infty }\left( \mu r^{(2^{i}-1)} \left( \frac{1}{1-r^{2^{i}}}-\frac{\left( r^{2^{i}}\right) ^{(j-i)}}{1-r^{2^{i}}}\right) \right) =\frac{r^{(2^{i}-1)}}{% 1-r^{2^{i}}} \mu \end{eqnarray*} lo que acaba de demostrar el teorema. \hspace{10cm}c.q.d. El teorema precedente demuestra que, bajo las hip\'{o}tesis en \'{e}l impuestas, el m\'{e}todo de Newton-Raphson converge. El teorema anterior a \'este, demuestra adem\'{a}s que la convergencia del m\'{e}todo es cuadr\'{a}tica. El m\'{e}todo de Newton, en cada iteraci\'{o}n, exige evaluar la matriz $% \left[ \mathbf{J}_{\mathbf{f}}(\mathbf{x}^{(i)})\right] ^{-1}.$ E\-llo, en el caso de que el n\'{u}mero de ecuaciones sea elevado, requiere un gran esfuerzo computacional. Por ello se han desarrollado diferentes variantes del m\'{e}todo de Newton en las que, perdiendo algo de su velocidad de convergencia, se aproxima dicha matriz inversa de la jacobiana. Algunas de estas variantes las presentaremos un poco m\'{a}s adelante. Asimismo, el m\'{e}todo de Newton-Raphson suele programarse de forma algo diferente a como lo hemos expuesto hasta ahora. En efecto, en el m\'{e}todo de Newton-Raphson en cada iteraci\'{o}n se suele determinar el vector incremento a trav\'{e}s de la resoluci\'{o}n de un sistema de n ecuaciones lineales (cons\'{u}ltese la bibliograf\'{\i}a para el estudio de m\'{e}todos num\'{e}ricos de resoluci\'{o}n de tales tipos de sistemas) y tras ello se suma el vector de incrementos al vector con el que se inicializ\'{o} la iteraci\'{o}n. M\'{a}s concretamente un algoritmo del m\'{e}todo puede ser el siguiente: \es \centerline{{\bf Algoritmo del m\'{e}todo de Newton-Raphson para sistemas}} \es Dado el sistema de ecuaciones no lineales $\mathbf{f}(\mathbf{x})=\mathbf{0}$% , los indicadores de precisi\'{o}n $\varepsilon $ y $\delta $, un valor m\'{a}ximo del n\'{u}mero de iteraciones que se permiten realizar $(maxiter)$ y un vector $\mathbf{x}$ con el que inicializar el proceso, $tolx\leftarrow 2 \varepsilon $ $tolf\leftarrow 2 \delta $ $iteraci\acute{o}n\leftarrow 0$ \textbf{Mientras} \textbf{(} $(iteraci\acute{o}n\varepsilon )$ \textbf{o} $(tolf>\delta )$ \textbf{)}, \textbf{hacer:} \hspace{0.8cm}\textbf{Evaluar} la matriz $\left[ \mathbf{J}_{\mathbf{f}}(% \mathbf{x})\right] $ \hspace{0.8cm}\textbf{Resolver} el sistema de ecuaciones lineales: $\left[ \mathbf{J}_{\mathbf{f}}(\mathbf{x})\right] \mathbf{\delta x}=\mathbf{f}% (\mathbf{x})$ \hspace{0.8cm}\hspace{0.8cm}\textbf{Si} $($el\textbf{\ }sistema no puede resolverse) \textbf{entonces:} \hspace{3cm}\textbf{Escribir} mensaje de error (jacobiana singular) y \hspace{3cm}finalizar el proceso \hspace{2cm}\textbf{si no:} \[ \mathbf{x}\leftarrow \mathbf{x}-\mathbf{\delta x} \] \[ tolx\leftarrow \left\| \mathbf{\delta x}\right\| \] \[ tolf\leftarrow \left\| \mathbf{f}(\mathbf{x})\right\| \] \[ iteraci\acute{o}n\leftarrow iteraci\acute{o}n+1 \] \hspace{2cm}\textbf{fin condici\'{o}n}. \textbf{Fin bucle condicional}. \textbf{Si} ($(tolx<\varepsilon )\;\mathbf{y}$ $(tolf<\delta )$ ) \textbf{% entonces:} \ \ \ \ \ \ \ \ \ \ tomar $\mathbf{x}$ como soluci\'{o}n \textbf{si no:} \ \ \ \ \ \ \ \ \ \ \textbf{Escribir} un mensaje de error en el proceso de c\'{a}lculo \textbf{fin condici\'{o}n}. \textbf{Fin del algoritmo.} \beobse A la matriz $\left[ \mathbf{J}_{\mathbf{f}}(\mathbf{x})\right] ,$ por analog\'{i}a con lo que representa la derivada de una funci\'{o}n, se la denomina en algunos textos en lugar de matriz jacobiana, matriz tangente. \enobse Ilustremos el funcionamiento del m\'{e}todo con un ejemplo. \bejem (Propuesto en Hanna \& Sandall [9]): La ca\'{\i}da de presi\'{o}n en la circulaci\'{o}n de un flujo turbulento en una tuber\'{\i}a recta de secci\'{o}n circular constante puede estimarse mediante la expresi\'{o}n: \[ \Delta p=\frac{\rho f L u^{2}}{2 D} \] donde $\rho $ es la densidad del fluido, $L$ es la longitud de la tuber\'{\i}a, $D$ es el di\'{a}metro de la secci\'{o}n, $u$ es la velocidad del fluido y $f$ es el coeficiente de fricci\'{o}n de la tuber\'{i}a. Este coeficiente es a su vez proporcional al n\'{u}mero de Reynolds $Re= \frac{D u \rho }{\mu }\;$donde $\mu \;$es la viscosidad del fluido$% )$ seg\'{u}n la relaci\'{o}n $f=Re^{-0.25}$. Asimismo, en los problemas de tuber\'{\i}as es usual trabajar no ya en t\'{e}rminos de velocidad del fluido si no de caudal del fluido, siendo el caudal $Q=\frac{% \pi D^{2}}{4}.u$. Con ello, la ca\'{\i}da de presi\'{o}n en la tuber\'{\i}a puede expresarse mediante una ley del tipo: \[ \Delta p(x)=K(x).\left( Q(x)\right) ^{1.75} \] donde $\Delta p(x)$ es la p\'{e}rdida de presi\'{o}n en el punto que dista $% x $ unidades de longitud de aqu\'{e}l respecto al que se mide la ca\'{\i}da de presi\'{o}n, $Q(x)$ es el caudal en dicho punto y $$ \dis K(x)=\frac{\rho \left( \dis \frac{\mu }{\rho D}\right) ^{0.25} \left( \dis \frac{4}{\pi D}\right) ^{1.75}}{2 D} x . $$ Consid\'{e}rese una tuber\'{\i}a de secci\'{o}n circular que va del punto P1 al punto P2 y en \'{e}l se divide en dos ramas, una que va al punto P3 y otra que va al punto P4. Designando por $Q$ al caudal que va de P1 a P2, por $Q_{1}$ al que va de P2 a P3, por $Q_{2}$ al que va de P2 a P4 y por $p_{1},$ $p_{2},$ $p_{3}$ y $p_{4}$ a las presiones en los puntos P1, P2, P3 y P4 respectivamente, las expresiones anteriores, junto a un balance de masa, nos conducen al sistema de ecuaciones no lineales: \[ p_{1}-p_{2}=K_{1} Q^{1.75} \] \[ p_{2}-p_{3}=K_{2} Q_{1}^{1.75} \] \[ p_{2}-p_{4}=K_{3} Q_{2}^{1.75} \] \[ Q=Q_{1}+Q_{2} \] Si para un fluido y una tuber\'{\i}a concretos se han estimado los valores siguientes: $$ K_{1}=2.35 e^{-3},\qquad K_{2}=4.67 e^{-3},\qquad K_{3}=3.72 e^{-2}, $$ y $$ p_{1}=75\;psi,\qquad p_{3}=20\;psi ,\qquad p_{4}=15\;psi $$ se desea estimar la presi\'{o}n $p_{2}$ existente en el punto $P2$ as\'{\i} como los caudales $Q,$ $Q_{1}$ y $Q_{2}$ que circulan por cada una de las ramas de la red de tuber\'{\i}as antes descrita. \enejem \underline{Soluci\'{o}n:} \es El sistema dado puede escribirse, de acuerdo a los datos del ejercicio, como: \[ 2.35 e^{-3} Q^{1.75}-75+p_{2}=0 \] \[ 4.67 e^{-3} Q_{1}^{1.75}+20-p_{2}=0 \] \[ 3.72 e^{-2} Q_{2}^{1.75}+15-p_{2}=0 \] \[ Q-Q_{1}-Q_{2}=0 \] Este sistema de 4 ecuaciones con 4 inc\'{o}gnitas puede intentar resolverse tal cual est\'{a} planteado mediante el m\'{e}todo de Newton-Raphson (invitamos al lector a hacerlo). Pero el proceso puede tener problemas si alguno de los caudales (independientemente del sentido f\'{\i}sico que ello pueda tener) se hace negativo ya que en ese caso no podr\'{a} calcularse $% Q_{i}^{1.75}=\sqrt[4]{Q_{i}^{7}}.$ Por dicho motivo es ventajoso en este caso utilizar la \'{u}ltima ecuaci\'{o}n inyectada en la primera reformulando el sistema como: \[ 2.35 e^{-3} (Q_{1}+Q_{2})^{1.75}-75+p_{2}=0 \] \[ 4.67 e^{-3} Q_{1}^{1.75}+20-p_{2}=0 \] \[ 3.72 e^{-2} Q_{2}^{1.75}+15-p_{2}=0 \] Este nuevo sistema ya s\'{o}lo tiene 3 ecuaciones con 3 inc\'{o}gnitas. En \'{e}l la funci\'{o}n que define el sistema es: \[ \mathbf{f}(Q_{1},Q_{2},p_{2})=\left( \begin{array}{c} 2.35 e^{-3} (Q_{1}+Q_{2})^{1.75}-75+p_{2} \\ 4.67 e^{-3} Q_{1}^{1.75}+20-p_{2} \\ 3.72 e^{-2} Q_{2}^{1.75}+15-p_{2} \end{array} \right) \] y la matriz jacobiana puede escribirse como: \[ \left[ \mathbf{J}_{\mathbf{f}}(Q_{1},Q_{2},p_{2})\right] =\left[ \begin{array}{rrr} (0.205 (Q_{1}+Q_{2})^{0.75}) & (0.205 (Q_{1}+Q_{2})^{0.75}) & 1 \\ 0.407 Q_{1}^{0.75} & 0 & -1 \\ 0 & 0.881 Q_{2}^{0.75} & -1 \end{array} \right] \] En cuanto a los valores de partida para inicializar el m\'{e}todo, puesto que P2 es un punto intermedio entre P1 y los extremos P3 y\ P4, tomaremos como $p_{2}$ una presi\'{o}n intermedia, por ejemplo $p_{2}=50\;psi$. Para los caudales $Q_{1}$ y $Q_{2}$ no se dispone de ninguna pista que nos indique en qu\'{e} entorno pueden estar. No obstante, si se considera $% p_{2}=50,$ de la segunda ecuaci\'{o}n se tiene que $Q_{1}\approx 16$ y, de la tercera ecuaci\'{o}n, que $Q_{2}\approx 7$ por lo que estos pueden ser valores coherentes con la presi\'{o}n tomada para inicializar el proceso. Aplicando pues el algoritmo de Newton-Raphson antes descrito a esta situaci\'{o}n, con los par\'{a}metros: $\varepsilon =10^{-6},$ $\delta =10^{-6},$ \textit{maxiter}$=100,$ \\ $\left\{ Q_{1}^{(0)},Q_{2}^{(0)},p_{2}^{(0)}\right\}^{T}=\left\{ 16,7,50\right\} $ se tiene la siguiente sucesi\'{o}n de vectores: $$ \dis \left( \begin{array}{c} Q_{1}^{(1)} \\ Q_{2}^{(1)} \\ p_{2}^{(1)} \end{array} \right) =\left( \begin{array}{c} 14.0506076 \\ 10.4943950 \\ 43.4152926 \end{array} \right) \rightarrow \left( \begin{array}{c} Q_{1}^{(2)} \\ Q_{2}^{(2)} \\ p_{2}^{(2)} \end{array} \right) =\left( \begin{array}{c} 14.1344377 \\ 10.1343069 \\ 43.9558088 \end{array} \right) \rightarrow $$ $$ \dis \rightarrow \left( \begin{array}{c} Q_{1}^{(3)} \\ Q_{2}^{(3)} \\ p_{2}^{(3)} \end{array} \right) =\left( \begin{array}{c} 14.1355465 \\ 10.1303048 \\ 43.9596512 \end{array} \right) \rightarrow \left( \begin{array}{c} Q_{1}^{(4)} \\ Q_{2}^{(4)} \\ p_{2}^{(4)} \end{array} \right) =\left( \begin{array}{c} 14.1355467 \\ 10.1303043 \\ 43.9596517 \end{array} \right) $$ no realiz\'{a}ndose m\'{a}s iteraciones pues la norma-2 del vector diferencia entre los hallados en la 3${{}^{a}}$ y 4${{}^{a}}$ iteraciones es inferior a $10^{-6}$ y los valores de la funci\'{o}n que define el sistema en este vector son: \[ \mathbf{f}(Q_{1}^{(4)},Q_{2}^{(4)},p_{2}^{(4)})=\left( \begin{array}{c} 0.287270 10^{-14} \\ 0.115880 10^{-14} \\ 0.493234 10^{-13} \end{array} \right) \] La soluci\'{o}n buscada es: \[ Q_{1}=14.1355467 \] \[ Q_{2}=10.1303043 \] \[ Q=Q_{1}+Q_{2}=24.265851 \] \[ p_{2}=43.9596517psi \] \subsubsection{Variantes del m\'{e}todo de Newton-Raphson para sistemas: m\'{e}todo de Newton modificado y m\'{e}todos de cuasi-Newton.} El paso m\'{a}s costoso de la aplicaci\'{o}n del m\'{e}todo de Newton-Raphson consiste en la e\-va\-lua\-ci\'{o}n en cada paso de la matriz jacobiana $\left[ \mathbf{J}_{\mathbf{f}}(\mathbf{x}^{(i)})\right] $ (lo cual conlleva la e\-va\-lua\-ci\'{o}n de las $n^{2}$ funciones derivadas parciales primeras, que a su vez implicar\'{a}n un n\'{u}mero de operaciones elementales que depender\'{a} de las expresiones de estas derivadas parciales) y de su inversi\'{o}n $\left( \left[ \mathbf{J}_{\mathbf{f}}(% \mathbf{x}^{(i)})\right] ^{-1}\right) $ o lo que es equivalente de la resoluci\'{o}n del sistema lineal de ecuaciones algebraicas $\left[ \mathbf{J% }_{\mathbf{f}}(\mathbf{x}^{(i)})\right] \mathbf{\delta x}^{(i)}=% \mathbf{f}(\mathbf{x}^{(i)}),$ lo cual implica tener que hacer del orden de $% O(\lambda n^{3})$ operaciones, siendo $n$ el n\'{u}mero de inc\'{o}gnitas y ecuaciones del sistema y $\lambda $ un par\'{a}metro menor o igual a $(2/3)$ dependiendo de la estructura de la matriz jacobiana. Ello permite estimar el n\'{u}mero de operaciones elementales en cada iteraci\'{o}n como un valor proporcional a $n^{3}$ lo cual, cuando $n$ toma valores elevados puede representar un coste computacional grande. Para intentar solventar este problema en la aplicaci\'{o}n pr\'{a}ctica del m\'{e}todo de Newton-Raphson se han desarrollado numerosos m\'{e}todos que, con mayor o mejor fortuna seg\'{u}n el sistema al que se aplique, tratan de aproximar ya sea $\left( \left[ \mathbf{J}_{\mathbf{f}}(\mathbf{x}% ^{(i)})\right] \right) $ o su inversa $\left( \left[ \mathbf{J}_{\mathbf{f}}(% \mathbf{x}^{(i)})\right] ^{-1}\right) .$ Entre ellos se\~{n}alamos los siguientes: \es \underline{\textbf{a) Aproximaci\'{o}n de las derivadas mediante diferencias finitas.}} \es En esta variante del m\'{e}todo los valores de las derivadas que intervienen en la expresi\'{o}n de la matriz jacobiana se aproximan mediante f\'{o}rmulas en diferencias finitas como por ejemplo: %$\frac{\partial f_{k}}{\partial x_{j}}(\mathbf{x}^{(i)})\approx $ \[ \dis \frac{\partial f_{k}}{\partial x_{j}}(\mathbf{x}^{(i)}) \approx \] \[\frac{% f_{k}(x_{1}^{(i)},..,x_{j-1}^{(i)},x_{j}^{(i)}+h_{j}^{(i)},x_{j+1}^{(i)},...,x_{n}^{(i)})-f_{k}(x_{1}^{(i)},..,x_{j-1}^{(i)},x_{j}^{(i)},x_{j+1}^{(i)},...,x_{n}^{(i)})% }{h_{j}^{(i)}} \] donde los par\'{a}metros $h_{j}^{(i)}$ (j=1, .., n) son tomados en cada iteraci\'{o}n ''suficientemente'' peque\~{n}os para asegurar una buena aproximaci\'{o}n. Por ejemplo: \[ h_{j}^{(i)}=h^{(i)}=Inf\left( \frac{\left\| \mathbf{x}^{(i)}\mathbf{-x}% ^{(i-1)}\right\| }{10},h^{(i-1)}\right) \] Otra elecci\'{o}n posible consiste en aproximar el valor de la derivada $% \frac{\partial f_{k}}{\partial x_{j}}(\mathbf{x}^{(i)})$ con un cierto valor de $h_{j}^{(i)}$ y a continuaci\'{o}n hacerlo con $\frac{h_{j}^{(i)}}{2}$ y comparar las dos aproximaciones obtenidas. Si la diferencia entre ambas es suficientemente peque\~{n}a se dar\'{a} por buena la aproximaci\'{o}n obtenida. Si es ``elevada'' se repetir\'{a} el proceso comparando las aproximaciones obtenidas para $\frac{h_{j}^{(i)}}{2}$ y para $\frac{% h_{j}^{(i)}}{4}.$ Este proceso se continua hasta obtener dos aproximaciones de la derivada parcial suficientemente pr\'{o}ximas, momento en el que una de ellas se toma como la aproximaci\'{o}n buscada de la derivada parcial. El proceso anterior nos permite estimar de forma aproximada la matriz jacobiana pero no nos elimina la necesidad de invertirla (o factorizarla) por lo que el n\'{u}mero de operaciones por i\-te\-ra\-ci\'{o}n sigue siendo proporcional a $n^{3}.$ \es \underline{\textbf{b) M\'{e}todo de Newton modificado.}} \es Esta variante consiste en utilizar durante la $k$ primeras iteraciones (siendo k un n\'{u}mero a predeterminar por el usuario del m\'{e}todo) como aproximaci\'{o}n de la matriz tangente la matriz $\left( \left[ \mathbf{J}_{% \mathbf{f}}(\mathbf{x}^{(0)})\right] \right) .$ Con ello en estas $k$ iteraciones s\'{o}lo se realiza una vez el c\'{a}lculo de la matriz jacobiana y de su inversa (y si se optase por la resoluci\'{o}n del sistema $% \left[ \mathbf{J}_{\mathbf{f}}(\mathbf{x}^{(0)})\right] \mathbf{\delta x}^{(i)}=\mathbf{f}(\mathbf{x}^{(i)})$ bastar\'{a} con factorizar una vez la matriz $\left[ \mathbf{J}_{\mathbf{f}}(\mathbf{x}^{(0)})\right] $ en la primera iteraci\'{o}n y conservar las matrices de la factorizaci\'{o}n). Realizadas estas k primeras iteraciones se calcula $\left[ \mathbf{J}_{% \mathbf{f}}(\mathbf{x}^{(k)})\right] $ y se utiliza esta matriz en las k siguientes iteraciones tras las cuales se vuelve a actualizar obteni\'{e}ndose $\left[ \mathbf{J}_{\mathbf{f}}(\mathbf{x}^{(2 k)})\right] $ y continuando as\'{\i} el proceso. Con ello, a costa de una p\'{e}rdida de velocidad de convergencia, se logra que s\'{o}lo las iteraciones 1${{}^a}$, (k+1)-\'{e}sima, (2.k+1)-\'{e}sima, .... impliquen la realizaci\'{o}n de un n\'{u}mero de operaciones proporcional a $n^{3}$ en tanto que el resto conllevar\'{a}n del orden de $% n^{2}$ operaciones. \es \underline{\textbf{c) M\'{e}todo de Jacobi}} \es En este m\'{e}todo la matriz tangente que interviene en cada iteraci\'{o}n $% \left[ \mathbf{J}_{\mathbf{f}}(\mathbf{x}^{(i)})\right] $ se sustituye por otra con la misma diagonal pero con todos sus dem\'{a}s elementos nulos.\ M\'{a}s concretamente, denotando por $\left[ \mathbf{D}_{\mathbf{f}}(\mathbf{% x}^{(i)})\right] $ a la matriz: \[ \dis \left[ \mathbf{D}_{\mathbf{f}}(\mathbf{x}^{(i)})\right] =\left[ \begin{array}{rrrr} \dis \frac{\partial f_{1}}{\partial x_{1}}(\mathbf{x}^{(i)}) & 0 & ... & 0 \\ [0.2cm] 0 & \dis \frac{\partial f_{2}}{\partial x_{2}}(\mathbf{x}^{(i)}) & ... & 0 \\ [0.2cm] ... & ... & ... & ... \\ [0.2cm] 0 & 0 & ... & \dis \frac{\partial f_{n}}{\partial x_{n}}(\mathbf{x}^{(i)}) \end{array} \right] \] se utilizar\'{a} el esquema iterativo: \[ \mathbf{x}^{(i+1)}=\mathbf{x}^{(i)}-\left[ \mathbf{D}_{\mathbf{f}}(\mathbf{x}% ^{(i)})\right] ^{-1} \mathbf{f}(\mathbf{x}^{(i)})\;\;\;\;\;(i=0,1,...) \] Esta forma de proceder efectivamente reduce de forma notable el n\'{u}mero de operaciones (s\'{o}lo conlleva evaluar $n$ funciones derivadas en lugar de $n^{2}$ y adem\'{a}s la inversi\'{o}n de una matriz diagonal s\'{o}lo implica n operaciones). Pero s\'{o}lo es v\'{a}lida si los elementos no dia\-go\-na\-les de la matriz jacobiana son ''peque\~{n}os'' comparados con los t\'{e}rminos dia\-go\-na\-les. \es \underline{\textbf{d)M\'{e}todo de Gauss-Seidel}} \es En esta variante del m\'{e}todo de Newton-Raphson, la matriz tangente de cada iteraci\'{o}n es sustituida por otra triangular inferior en la que los elementos de la diagonal y los que est\'{a}n por debajo de ella coinciden con los de la matriz jacobiana. M\'{a}s concretamente, siendo $\left[ \mathbf{G}_{\mathbf{f}}(\mathbf{x}^{(i)})\right] $ la matriz: \[ \left[ \mathbf{G}_{\mathbf{f}}(\mathbf{x}^{(i)})\right] =\left[ \begin{array}{rrrr} \frac{\partial f_{1}}{\partial x_{1}}(\mathbf{x}^{(i)}) & 0 & ... & 0 \\ \frac{\partial f_{2}}{\partial x_{1}}(\mathbf{x}^{(i)}) & \frac{\partial f_{2}}{\partial x_{2}}(\mathbf{x}^{(i)}) & ... & 0 \\ ... & ... & ... & ... \\ \frac{\partial f_{n}}{\partial x_{1}}(\mathbf{x}^{(i)}) & \frac{\partial f_{n}}{\partial x_{2}}(\mathbf{x}^{(i)}) & ... & \frac{\partial f_{n}}{% \partial x_{n}}(\mathbf{x}^{(i)}) \end{array} \right] \] el esquema que se emplea es: \[ \mathbf{x}^{(i+1)}=\mathbf{x}^{(i)}-\left[ \mathbf{G}_{\mathbf{f}}(\mathbf{x}% ^{(i)})\right] ^{-1} \mathbf{f}(\mathbf{x}^{(i)})\;\;\;\;\;(i=0,1,...) \] En esta variante del m\'{e}todo de Newton-Raphson tambi\'{e}n se reduce de forma notable el n\'{u}mero de operaciones (s\'{o}lo conlleva evaluar $% \left( n.(n+1)/2\right) $ funciones derivadas en lugar de n$^{2}$ y adem\'{a}s la inversi\'{o}n de una matriz triangular s\'{o}lo implica del orden de n$^{2}$ operaciones).\ Pero tambi\'{e}n su l\'{\i}mite de validez lo marcar\'{a} la peque\~{n}ez de los t\'{e}rminos que se est\'{a}n despreciando en la matriz tangente. \es \underline{\textbf{e) M\'{e}todos de sobrerrelajaci\'{o}n (SOR)}} \es Con la misma notaci\'{o}n empleada en la descripci\'{o}n de los m\'{e}todos de Jacobi y de Gauss-Seidel, este m\'{e}todo consiste en utilizar el esquema: \[ \mathbf{x}^{(i+1)}=\mathbf{x}^{(i)}-\left[ \rho \mathbf{D}_{\mathbf{f}% }(\mathbf{x}^{(i)})+\mathbf{G}_{\mathbf{f}}(\mathbf{x}^{(i)})\right] ^{-1} \mathbf{f}(\mathbf{x}^{(i)})\;\;\;\;\;(i=0,1,...) \] donde $\rho $ es un par\'{a}metro que debe fijarse de antemano, llam\'{a}ndose par\'{a}metro de relajaci\'{o}n al valor $\omega =\frac{1}{% (1+\rho )}$. La matriz a invertir tambi\'{e}n es ahora triangular inferior por lo que el n\'{u}mero de operaciones es similar al del m\'{e}todo de Gauss-Seidel (que no es m\'{a}s que un caso particular de este cuando a $% \omega $ se le da el valor 1). Pueden encontrarse detalles sobre las condiciones de convergencia de este m\'{e}todo (y del de Gauss-Seidel) en J.M. Ortega \& W.C. Rheinboldt [11]. \es \underline{\textbf{f)\ M\'{e}todos de cuasi-Newton: M\'{e}todo de Broyden.}} \es Este tipo de m\'{e}todos generalizan el m\'{e}todo de la secante en el sentido de que la idea de la que parten consiste en aproximar la matriz jacobiana en cada iteraci\'{o}n a partir de la matriz tangente utilizada en la iteraci\'{o}n anterior. En este sentido la primera iteraci\'{o}n del m\'{e}todo se realiza como en el m\'{e}todo de Newton pero a partir de la segunda iteraci\'{o}n la matriz jacobiana $\left[ \mathbf{J}_{\mathbf{f}}(% \mathbf{x}^{(i)})\right] $ es sustituida por otra matriz $\left[ \mathbf{A}% ^{(i)}\right] $ que se obtiene a partir de $\left[ \mathbf{A}^{(i-1)}\right] ,$ (siendo $\left[ \mathbf{A}^{(0)}\right] =\left[ \mathbf{J}_{\mathbf{f}}(% \mathbf{x}^{(0)})\right] )$ y sigui\'{e}ndose el esquema iterativo: \[ \mathbf{x}^{(i+1)}=\mathbf{x}^{(i)}-\left[ \mathbf{A}^{(i)}\right] ^{-1} \mathbf{f}(\mathbf{x}^{(i)})\;\;\;\;\;(i=0,1,...) \] El m\'{a}s popular de este tipo de m\'{e}todos es el conocido como \textbf{% m\'{e}todo de Broyden} que a continuaci\'{o}n describimos. Este m\'{e}todo se inspira en el m\'{e}todo de la secante en el sentido de que en dicho m\'{e}todo el valor de $f^{\prime }(x_{i})$ se aproximaba mediante la expresi\'{o}n: \[ f^{\prime }(x_{i})\approx f_{i}^{\prime }=\frac{f(x_{i})-f(x_{i-1})}{% x_{i}-x_{i-1}} \] y reemplazando en el m\'{e}todo de Newton la ''tangente'' $f^{\prime }(x_{i}) $ por la ''tangente aproximada'' $f_{i}^{\prime }$ se obten\'{\i}a el m\'{e}todo de la secante. Obs\'{e}rvese que de la expresi\'{o}n anterior se tiene que: \[ f_{i}^{\prime }.(x_{i}-x_{i-1})=f(x_{i})-f(x_{i-1}) \] Utilizando esta idea, C.G. Broyden (en [2]) propuso reemplazar en cada iteraci\'{o}n del m\'{e}todo de Newton la matriz tangente $\left[ \mathbf{J}% _{\mathbf{f}}(\mathbf{x}^{(i)})\right] $ por otra matriz $\left[ \mathbf{A}% ^{(i)}\right] $ que verificase que: \[ \left[ \mathbf{A}^{(i)}\right] (\mathbf{x}^{(i)}-\mathbf{x}^{(i-1)})=% \mathbf{f}(\mathbf{x}^{(i)})-\mathbf{f}(\mathbf{x}^{(i-1)})\;\;\;\;\;\;\;\;% \;(1) \] Junto a esta condici\'{o}n, C.G. Broyden impuso otra que pasamos a ``justificar''. Si se considera que $\mathbf{f}(\mathbf{x})\in \left( C^{2}(D)\right) ^{n}$ considerando desarrollos en serie de Taylor hasta el primer orden (es decir linealizando los desarrollos como se hace en el m\'{e}todo de Newton) y siendo $\mathbf{x}^{(i-1)}$ y $\mathbf{x}^{(i)}$ dos vectores ``suficientemente pr\'{o}ximos''\ y $\mathbf{x}$ otro vector tambi\'{e}n suficientemente pr\'{o}ximo a los anteriores, se tiene que: \[ \mathbf{f}(\mathbf{x})\approx \mathbf{f}(\mathbf{x}^{(i)})+\left[ \mathbf{J}% _{\mathbf{f}}(\mathbf{x}^{(i)})\right] (\mathbf{x}-\mathbf{x}% ^{(i)})\;\;\;\;\;\;\;\;\;(2) \] \[ \mathbf{f}(\mathbf{x})\approx \mathbf{f}(\mathbf{x}^{(i-1)})+\left[ \mathbf{J% }_{\mathbf{f}}(\mathbf{x}^{(i-1)})\right] (\mathbf{x}-\mathbf{x}% ^{(i-1)})\;\;\;(3) \] de donde restando (3) a (2) se tendr\'{a} que: \[ \mathbf{f}(\mathbf{x}^{(i)})+\left[ \mathbf{J}_{\mathbf{f}}(\mathbf{x}% ^{(i)})\right] (\mathbf{x}-\mathbf{x}^{(i)})-\mathbf{f}(\mathbf{x}% ^{(i-1)})-\left[ \mathbf{J}_{\mathbf{f}}(\mathbf{x}^{(i-1)})\right] (% \mathbf{x}-\mathbf{x}^{(i-1)})\approx \mathbf{0\;\;\;}(4) \] Obviamente el razonamiento anterior s\'{o}lo tendr\'{a} validez para puntos suficientemente cercanos.\ Es decir que si los vectores $\mathbf{x}^{(i)},$ $% \mathbf{x}^{(i-1)}$ se suponen generados por el m\'{e}todo de Newton, el razonamiento anterior s\'{o}lo ser\'{a} v\'{a}lido en las cercan\'{\i}as de la soluci\'{o}n y para vectores $\mathbf{x}$ tambi\'{e}n pr\'{o}ximos a la soluci\'{o}n. En el m\'{e}todo propuesto por Broyden las aproximaciones del vector soluci\'{o}n se buscan en la forma: \[ \mathbf{x}^{(i+1)}=\mathbf{x}^{(i)}-\left[ \mathbf{A}^{(i)}\right] \mathbf{f}(\mathbf{x}^{(i)}) \] sustituy\'{e}ndose la matriz jacobiana por $\left[ \mathbf{A}^{(i)}\right] .$ Por ello la segunda condici\'{o}n, junto a (1), que impone Broyden es que se minimice para cualquier vector $\mathbf{x}\in \R^{n}$ (y en el sentido de cualquier norma) el vector: \[ \mathbf{f}(\mathbf{x}^{(i)})+\left[ \mathbf{A}^{(i)}\right] (\mathbf{x}% -\mathbf{x}^{(i)})-\mathbf{f}(\mathbf{x}^{(i-1)})-\left[ \mathbf{A}% ^{(i-1)}\right] (\mathbf{x}-\mathbf{x}^{(i-1)})\mathbf{\;\;\;} \] que puede escribirse de forma equivalente como: \[ \mathbf{f}(\mathbf{x}^{(i)})-\mathbf{f}(\mathbf{x}^{(i-1)})-\left[ \mathbf{A}% ^{(i)}\right] (\mathbf{x}^{(i)}-\mathbf{x}^{(i-1)})+\left[ \mathbf{A}% ^{(i)}-\mathbf{A}^{(i-1)}\right] (\mathbf{x}-\mathbf{x}% ^{(i-1)})\;\;\;\;\;(5) \] Si en (5) se introduce la primera condici\'{o}n impuesta (1) se obtiene finalmente que debe minimizarse el vector: \[ \left[ \mathbf{A}^{(i)}-\mathbf{A}^{(i-1)}\right] (\mathbf{x}-\mathbf{x% }^{(i-1)}) \] El vector $(\mathbf{x}-\mathbf{x}^{(i-1)})$ puede a su vez expresarse como suma de un vector proporcional a $(\mathbf{x}^{(i)}-\mathbf{x}^{(i-1)})$ m\'{a}s otro vector ortogonal a este es decir en la forma: \[ (\mathbf{x}-\mathbf{x}^{(i-1)})=\alpha (\mathbf{x}^{(i)}-\mathbf{x}% ^{(i-1)})+\mathbf{v=}\alpha \mathbf{u}^{(i)}+\mathbf{v} \] donde $\mathbf{u}^{(i)}=(\mathbf{x}^{(i)}-\mathbf{x}^{(i-1)})$ y $\mathbf{v}$ es un vector ortogonal al $\mathbf{u}^{(i)}$ es decir tal que: $\mathbf{v}% ^{T} \mathbf{u}^{(i)}=0.$ De esta forma: \[ \left[ \mathbf{A}^{(i)}-\mathbf{A}^{(i-1)}\right] (\mathbf{x}-\mathbf{x% }^{(i-1)})=\alpha \left[ \mathbf{A}^{(i)}-\mathbf{A}^{(i-1)}\right] .% \mathbf{u}^{(i)}+\left[ \mathbf{A}^{(i)}-\mathbf{A}^{(i-1)}\right] \mathbf{v} \] El primer sumando de la expresi\'{o}n anterior es fijo pues por la condici\'{o}n (1) tomar\'{a} el valor: \[ \alpha \left[ \mathbf{A}^{(i)}-\mathbf{A}^{(i-1)}\right] .\mathbf{u}% ^{(i)}=\alpha (\mathbf{f}(\mathbf{x}^{(i)})-\mathbf{f}(\mathbf{x}% ^{(i-1)})-\left[ \mathbf{A}^{(i-1)}\right] \mathbf{u}^{(i)}) \] Por tanto, debe minimizarse el valor de $\left[ \mathbf{A}^{(i)}-\mathbf{A}^{(i-1)}\right] \mathbf{v}$ para cualquier vector $\mathbf{v}$ ortogonal a $\mathbf{u}^{(i)}=(\mathbf{x}% ^{(i)}-\mathbf{x}^{(i-1)}).$ Ello se logra obligando a que $\left[ \mathbf{A}% ^{(i)}-\mathbf{A}^{(i-1)}\right] \mathbf{v=0,}$ es decir haciendo que todos los vectores fila de la matriz $\left[ \mathbf{A}^{(i)}-\mathbf{A}% ^{(i-1)}\right] $ sean ortogonales a $\mathbf{v,}$ o lo que es lo mismo que todas las filas de $\left[ \mathbf{A}^{(i)}-\mathbf{A}^{(i-1)}\right] $ sean proporcionales a $\mathbf{u}^{(i)}.$ En otros t\'{e}rminos la matriz $\left[ \mathbf{A}^{(i)}-\mathbf{A}^{(i-1)}\right] $ debe ser de la forma $\mathbf{b}% (\mathbf{u}^{(i)})^{T}$ donde $\mathbf{b}$ es un vector columna formado por los factores de proporcionalidad de cada fila. Para determinar el valor de las componentes del vector $\mathbf{b}$ puede volverse a recurrir a la condici\'{o}n (1) de forma que: \[ \left[ \mathbf{A}^{(i)}\right] \mathbf{u}^{(i)}=\mathbf{f}(\mathbf{x}% ^{(i)})-\mathbf{f}(\mathbf{x}^{(i-1)})\Rightarrow \] \[ \Rightarrow \left[ \mathbf{A}^{(i)}-\mathbf{A}^{(i-1)}\right] \mathbf{u% }^{(i)}=\mathbf{f}(\mathbf{x}^{(i)})-\mathbf{f}(\mathbf{x}^{(i-1)})-\left[ \mathbf{A}^{(i-1)}\right] \mathbf{u}^{(i)}\Rightarrow \] \[ \Rightarrow \mathbf{b} (\mathbf{u}^{(i)})^{T} \mathbf{u}^{(i)}=% \mathbf{f}(\mathbf{x}^{(i)})-\mathbf{f}(\mathbf{x}^{(i-1)})-\left[ \mathbf{A}% ^{(i-1)}\right] \mathbf{u}^{(i)}\Rightarrow \] \[ \Rightarrow \mathbf{b=}\frac{1}{(\mathbf{u}^{(i)})^{T} \mathbf{u}^{(i)}}% \left( \mathbf{f}(\mathbf{x}^{(i)})-\mathbf{f}(\mathbf{x}% ^{(i-1)})-\left[ \mathbf{A}^{(i-1)}\right] \mathbf{u}^{(i)}\right) \] Siendo la anterior la expresi\'{o}n del vector de proporcionalidad $\mathbf{b% }$ se tiene que: \[ \left[ \mathbf{A}^{(i)}\right] =\left[ \mathbf{A}^{(i-1)}\right] +\frac{% \left( \mathbf{f}(\mathbf{x}^{(i)})-\mathbf{f}(\mathbf{x}^{(i-1)})-\left[ \mathbf{A}^{(i-1)}\right] \mathbf{u}^{(i)}\right) (\mathbf{u}% ^{(i)})^{T}}{(\mathbf{u}^{(i)})^{T} \mathbf{u}^{(i)}} \] La evaluaci\'{o}n de la expresi\'{o}n anterior, por ``aparatosa'' que parezca no es excesivamente costosa. En ella debe estimarse en primer lugar el vector $\left[ \mathbf{A}^{(i-1)}\right] \mathbf{u}^{(i)}$ para lo que se realizan $(2 n^{2})$ operaciones; tras ello se calcula el vector dado por \[ \left( \mathbf{f}(\mathbf{x}^{(i)})-\mathbf{f}(\mathbf{x}^{(i-1)})-\left[ \mathbf{A}^{(i-1)}\right] \mathbf{u}^{(i)}\right) \] lo que implica realizar otras $(2 n)$ operaciones; posteriormente se evaluar\'{a} el producto: \[ \left( \mathbf{f}(\mathbf{x}^{(i)})-\mathbf{f}(\mathbf{x}^{(i-1)})-\left[ \mathbf{A}^{(i-1)}\right] \mathbf{u}^{(i)}\right) (\mathbf{u}% ^{(i)})^{T} \] lo que conllevar\'{a} hacer otras $(n^{2})$ operaciones; asimismo debe evaluarse el producto escalar: \[ (\mathbf{u}^{(i)})^{T} \mathbf{u}^{(i)} \] lo que podr\'{a} hacerse con otras $(2 n)$ operaciones. Finalmente se realizar\'{a} la suma de matrices \[ \left[ \mathbf{A}^{(i-1)}\right] +\frac{1}{(\mathbf{u}^{(i)})^{T} \mathbf{u}^{(i)}} \left( \left( \mathbf{f}(\mathbf{x}^{(i)})-\mathbf{f}(% \mathbf{x}^{(i-1)})-\left[ \mathbf{A}^{(i-1)}\right] \mathbf{u}% ^{(i)}\right) (\mathbf{u}^{(i)})^{T}\right) \] lo que necesita nuevamente del orden $n^{2}$ operaciones. En resumen el m\'{e}todo exige del orden de $O(4 n^{2})$ operaciones. Ahora bien, poco habr\'{\i}amos ganado en n\'{u}mero de operaciones si no se encuentra una forma eficaz de calcular $\left[ \mathbf{A}^{(i)}\right] ^{-1}$ pues recordemos que en el m\'{e}todo de Broyden se realiza la operaci\'{o}n: \[ \mathbf{x}^{(i+1)}=\mathbf{x}^{(i)}-\left[ \mathbf{A}^{(i)}\right] ^{-1} f(\mathbf{x}^{(i)}) \] y el proceso de inversi\'{o}n nos devolver\'{\i}a a estar en el rango de operaciones de $O(n^{3}).$ Afortunadamente, la inversi\'{o}n tambi\'{e}n puede realizarse manteni\'{e}ndose el orden de operaciones en $O(n^{2})$ utilizando la expresi\'{o}n de Sherman-Morrison-Woodbury que se recoge en la proposici\'{o}n siguiente: \beprop Siendo $\left[ \mathbf{A}\right] $ una matriz real cuadrada de orden n regular y siendo $\mathbf{u}$ y $\mathbf{v}$ dos vectores reales de n componentes tales que: \[ \mathbf{u}^{T}\mathbf{ }\left[ \mathbf{A}\right] ^{-1}\mathbf{ v}% \neq -1 \] se verifica que la matriz $\left( \left[ \mathbf{A}\right] +\mathbf{v u}% ^{T}\right) $ tambi\'{e}n es regular y: \[ \left( \left[ \mathbf{A}\right] +\mathbf{v u}^{T}\right) ^{-1}=\left[ \mathbf{A}\right] ^{-1}-\frac{1}{1+\mathbf{u}^{T}\mathbf{ }\left[ \mathbf{A}\right] ^{-1}\mathbf{ v}} \left[ \mathbf{A}\right] ^{-1} \mathbf{v u}^{T} \left[ \mathbf{A}\right] ^{-1} \] \enprop \underline{Demostraci\'{o}n:} Si $\left[ \mathbf{A}\right] $ es una matriz regular y $\mathbf{u}$ y $% \mathbf{v}$ son dos vectores tales que \[ \mathbf{u}^{T}\mathbf{ }\left[ \mathbf{A}\right] ^{-1}\mathbf{ v}% \neq -1 \] se podr\'{a} calcular la matriz $$ \dis \left[ \mathbf{A}\right] ^{-1}-\frac{1}{1+% \mathbf{u}^{T}\mathbf{ }\left[ \mathbf{A}\right] ^{-1}\mathbf{ v}}% \left[ \mathbf{A}\right] ^{-1} \mathbf{v u}^{T} \left[ \mathbf{A}\right] ^{-1}. $$ Comprobemos que esta matriz es efectivamente la inversa de $\left( \left[ \mathbf{A}\right] +\mathbf{v u}^{T}\right) .$ Para ello: \[ \left( \left[ \mathbf{A}\right] +\mathbf{v u}^{T}\right) \left( \left[ \mathbf{A}\right] ^{-1}-\frac{1}{1+\mathbf{u}^{T}\mathbf{ }% \left[ \mathbf{A}\right] ^{-1}\mathbf{ v}} \left[ \mathbf{A}% \right] ^{-1} \mathbf{v u}^{T} \left[ \mathbf{A}\right] ^{-1}\right) = \] \[ =\left[ \mathbf{A}\right] \left[ \mathbf{A}\right] ^{-1}-\frac{1}{1+% \mathbf{u}^{T}\mathbf{ }\left[ \mathbf{A}\right] ^{-1}\mathbf{ v}}% \left[ \mathbf{A}\right] \left[ \mathbf{A}\right] ^{-1} \mathbf{v u}^{T} \left[ \mathbf{A}\right] ^{-1}+ \] \[ +\mathbf{v u}^{T} \left[ \mathbf{A}\right] ^{-1}-\frac{1}{1+% \mathbf{u}^{T}\mathbf{ }\left[ \mathbf{A}\right] ^{-1}\mathbf{ v}}% \mathbf{v} \mathbf{u}^{T} \left[ \mathbf{A}\right] ^{-1} \mathbf{v u}^{T} \left[ \mathbf{A}\right] ^{-1}= \] \[ =\mathbf{I}-\frac{1}{1+\mathbf{u}^{T}\mathbf{ }\left[ \mathbf{A}\right] ^{-1}\mathbf{ v}} \mathbf{v u}^{T} \left[ \mathbf{A}% \right] ^{-1}+\mathbf{v u}^{T} \left[ \mathbf{A}\right] ^{-1}- \] \[ -\frac{\mathbf{u}^{T} \left[ \mathbf{A}\right] ^{-1} \mathbf{v}}{1+% \mathbf{u}^{T}\mathbf{ }\left[ \mathbf{A}\right] ^{-1}\mathbf{ v}}% \mathbf{v u}^{T} \left[ \mathbf{A}\right] ^{-1}= \] \[ =\mathbf{I}-\frac{1+\mathbf{u}^{T} \left[ \mathbf{A}\right] ^{-1} \mathbf{v}}{1+\mathbf{u}^{T}\mathbf{ }\left[ \mathbf{A}\right] ^{-1}% \mathbf{ v}} \mathbf{v u}^{T} \left[ \mathbf{A}\right] ^{-1}+\mathbf{v u}^{T} \left[ \mathbf{A}\right] ^{-1}= \] \[ =\mathbf{I}-\mathbf{v u}^{T} \left[ \mathbf{A}\right] ^{-1}+% \mathbf{v u}^{T} \left[ \mathbf{A}\right] ^{-1}=\mathbf{I} \] \hspace{10cm}c.q.d. Para aplicar la expresi\'{o}n de Sherman-Morrison-Woodbury a la expresi\'{o}n: \[ \left[ \mathbf{A}^{(i)}\right] =\left[ \mathbf{A}^{(i-1)}\right] +\frac{% \left( \mathbf{f}(\mathbf{x}^{(i)})-\mathbf{f}(\mathbf{x}^{(i-1)})-\left[ \mathbf{A}^{(i-1)}\right] \mathbf{u}^{(i)}\right) (\mathbf{u}% ^{(i)})^{T}}{(\mathbf{u}^{(i)})^{T} \mathbf{u}^{(i)}}. \] Supondremos que $\left[ \mathbf{A}^{(i-1)}\right] $ es regular y utilizaremos la siguiente notaci\'on: $$\mathbf{\Delta }^{(i)}\mathbf{f}=\mathbf{f}(\mathbf{x}^{(i)})-\mathbf{f}(% \mathbf{x}^{(i-1)}),$$ \[ \mathbf{w}^{(i)}=\frac{1}{(\mathbf{u}^{(i)})^{T}\mathbf{u}^{(i)}}\left( \mathbf{\Delta }^{(i)}\mathbf{f}-\left[ \mathbf{A}^{(i-1)}\right] \mathbf{u}% ^{(i)}\right) =\frac{1}{||\mathbf{u}^{(i)}||_{2}}\left( \mathbf{\Delta }% ^{(i)}\mathbf{f}-\left[ \mathbf{A}^{(i-1)}\right] \mathbf{u}^{(i)}\right) \] con lo que \[ \left[ \mathbf{A}^{(i)}\right] =\left[ \mathbf{A}^{(i-1)}\right] +\mathbf{w}% ^{(i)} (\mathbf{u}^{(i)})^{T} \] por lo que finalmente \[ \left[ \mathbf{A}^{(i)}\right] ^{-1}=\left[ \mathbf{A}^{(i-1)}\right] ^{-1}-% \frac{\left[ \mathbf{A}^{(i-1)}\right] ^{-1} \mathbf{w}^{(i)} (% \mathbf{u}^{(i)})^{T} \left[ \mathbf{A}^{(i-1)}\right] ^{-1}}{1+(% \mathbf{u}^{(i)})^{T} \left[ \mathbf{A}^{(i-1)}\right] ^{-1} \mathbf{w}^{(i)}}= \] \[ =\left[ \mathbf{A}^{(i-1)}\right] ^{-1}-\frac{\left[ \mathbf{A}% ^{(i-1)}\right] ^{-1}\frac{1}{||\mathbf{u}^{(i)}||_{2}}\left( \mathbf{% \Delta }^{(i)}\mathbf{f}-\left[ \mathbf{A}^{(i-1)}\right] \mathbf{u}% ^{(i)}\right) (\mathbf{u}^{(i)})^{T}\left[ \mathbf{A}^{(i-1)}\right] ^{-1}% }{1+(\mathbf{u}^{(i)})^{T}\left[ \mathbf{A}^{(i-1)}\right] ^{-1} \frac{% 1}{||\mathbf{u}^{(i)}||_{2}} \left( \mathbf{\Delta }^{(i)}\mathbf{f}% -\left[ \mathbf{A}^{(i-1)}\right] \mathbf{u}^{(i)}\right) }= \] \[ =\left[ \mathbf{A}^{(i-1)}\right] ^{-1}-\frac{\left( \left[ \mathbf{A}% ^{(i-1)}\right] ^{-1} \mathbf{\Delta }^{(i)}\mathbf{f}-\mathbf{u}% ^{(i)}\right) (\mathbf{u}^{(i)})^{T} \left[ \mathbf{A}% ^{(i-1)}\right] ^{-1}}{||\mathbf{u}^{(i)}||_{2}+(\mathbf{u}^{(i)})^{T} \left[ \mathbf{A}^{(i-1)}\right] ^{-1} \mathbf{\Delta }^{(i)}\mathbf{f}% -(\mathbf{u}^{(i)})^{T} \mathbf{u}^{(i)}}= \] \[ =\left[ \mathbf{A}^{(i-1)}\right] ^{-1}+\frac{\left( \mathbf{u}^{(i)}-\left[ \mathbf{A}^{(i-1)}\right] ^{-1} \mathbf{\Delta }^{(i)}\mathbf{f}\right) (\mathbf{u}^{(i)})^{T} \left[ \mathbf{A}^{(i-1)}\right] ^{-1}}{(% \mathbf{u}^{(i)})^{T} \left[ \mathbf{A}^{(i-1)}\right] ^{-1} \mathbf{\Delta }^{(i)}\mathbf{f}} \] Examinemos el orden del n\'{u}mero de operaciones que conlleva la aplicaci\'{o}n de la f\'{o}rmula anterior (supuestos conocidos la matriz $% \left[ \mathbf{A}^{(i-1)}\right] ^{-1},$ y los vectores $\mathbf{\Delta }% ^{(i)}\mathbf{f=f}(\mathbf{x}^{(i)})-\mathbf{f}(\mathbf{x}^{(i-1)})$ y $% \mathbf{u}^{(i)}=(\mathbf{x}^{(i)}-\mathbf{x}^{(i-1)})).$ El c\'{a}lculo de \[ (\mathbf{z}^{(i)})^{T}=(\mathbf{u}^{(i)})^{T} \left[ \mathbf{A}% ^{(i-1)}\right] ^{-1} \] implica realizar $(2 n^{2})$ operaciones elementales. El c\'{a}lculo de \[ \mathbf{y}^{(i)}=\left[ \mathbf{A}^{(i-1)}\right] ^{-1} \mathbf{\Delta }% ^{(i)}\mathbf{f} \] implica otras $(2 n^{2})$ operaciones. La estimaci\'{o}n de \[ \mathbf{r}^{(i)}=\left( \mathbf{u}^{(i)}-\mathbf{y}^{(i)}\right) \] conlleva $n$ operaciones elementales m\'{a}s. La determinaci\'{o}n de la matriz del numerador: \[ \left[ \mathbf{M}^{(i)}\right] =\mathbf{r}^{(i)}\mathbf{ }\left( \mathbf{z}^{(i)}\right) ^{T} \] se realiza con $n^{2}$ operaciones elementales adicionales. El c\'{a}lculo del escalar del denominador \[ \alpha ^{(i)}=\mathbf{(z}^{(i)})^{T} \mathbf{\Delta }^{(i)}\mathbf{f} \] exige realizar otras $2 n$ operaciones elementales. El multiplicar el escalar $\left( \alpha ^{(i)}\right) ^{-1}$ por las componentes de la matriz $\mathbf{M}^{(i)},$ estimando la matriz $[\mathbf{\Delta A}^{(i)}],$ conlleva otras $n^{2}$ operaciones elementales m\'{a}s. Finalmente el sumar $% \left[ \mathbf{A}^{(i-1)}\right] ^{-1}$ y $[\mathbf{\Delta A}^{(i)}]$ para obtener $\left[ \mathbf{A}^{(i)}\right] ^{-1}$ se puede realizar con $n^{2}$ operaciones elementales. En total se realizan por tanto: $7 n^{2}+3n\sim O(7 n^{2})$ operaciones en cada iteraci\'{o}n. \es Comparando las operaciones que se realizan en cada iteraci\'{o}n del m\'{e}todo de Newton $(O(\frac{2}{3} n^{3}))$ con las necesarias en cada iteraci\'{o}n de este m\'{e}todo, se concluye que o\-pe\-ra\-cio\-nal\-men\-te cada iteraci\'{o}n del m\'{e}todo de Broyden es ventajosa siempre que $\frac{2}{3}% n>7,$ es decir para valores de $n$ superiores a $10.$ \es Seg\'{u}n todo lo anterior un algoritmo del m\'{e}todo de Broyden es el que se recoge a con\-ti\-nua\-ci\'{o}n: \es \centerline{{\bf Algoritmo del m\'{e}todo de Broyden para sistemas no lineales}} \es Dado el sistema de ecuaciones no lineales $\mathbf{f}(\mathbf{x})=\mathbf{0}$% , los indicadores de precisi\'{o}n $\varepsilon $ y $\delta $, un valor m\'{a}ximo del n\'{u}mero de iteraciones que se permiten realizar $(maxiter)$ y un vector $\mathbf{x}$ con el que inicializar el proceso, $iteraci\acute{o}n\leftarrow 1$ $\mathbf{v}\leftarrow \mathbf{f}(\mathbf{x})$ \textbf{Evaluar} la matriz $\left[ \mathbf{J}_{\mathbf{f}}(\mathbf{x}% )\right] $ \textbf{Evaluar} la matriz $\left[ \mathbf{A}\right] =\left[ \mathbf{J}_{% \mathbf{f}}(\mathbf{x})\right] ^{-1}$ \textbf{Calcular} $\mathbf{u}=-\left[ \mathbf{A}\right] \mathbf{v}$ \textbf{Calcular} $\mathbf{x}\leftarrow \mathbf{x+u}$ $\mathbf{w}\leftarrow \mathbf{f}(\mathbf{x})$ $tolx\leftarrow ||\mathbf{u}||$ $tolf\leftarrow ||\mathbf{w}||$ \textbf{Mientras} \textbf{(} $(iteraci\acute{o}n\varepsilon )$ \textbf{o} $(tolf>\delta )$ \textbf{)}, \textbf{hacer:} \hspace{0.8cm}$\mathbf{\delta f\leftarrow w-v}$ \hspace{0.8cm}$\mathbf{v}\leftarrow \mathbf{w}$ \hspace{0.8cm}$\mathbf{z\leftarrow [A]}^{T} \mathbf{u}$ \hspace{0.8cm}$\mathbf{y}\leftarrow [\mathbf{A}] \mathbf{\delta f}$ \hspace{0.8cm}$\mathbf{r}\leftarrow \mathbf{u}-\mathbf{y}$ \hspace{0.8cm}$\alpha \leftarrow \mathbf{z}^{T} \mathbf{\delta f}$ \hspace{0.8cm}$[\mathbf{A}]\leftarrow [\mathbf{A}]+\frac{1}{\alpha } \mathbf{r z}^{T}$ \hspace{0.8cm}$\mathbf{u}\leftarrow -[\mathbf{A}] \mathbf{v}$ \hspace{0.8cm}$\mathbf{x}\leftarrow \mathbf{x}+\mathbf{u}$ \hspace{0.8cm}$\mathbf{w}\leftarrow \mathbf{f}(\mathbf{x})$ \hspace{0.8cm}$tolx\leftarrow ||\mathbf{u}||$ $\hspace{0.8cm}tolf\leftarrow ||\mathbf{w}||$ \hspace{0.8cm}$iteraci\acute{o}n\leftarrow iteraci\acute{o}n+1$ \textbf{Fin bucle condicional}. \textbf{Si} ($(tolx<\varepsilon )\;\mathbf{y}$ $(tolf<\delta )$ ) \textbf{% entonces:} \ \ \ \ \ \ \ \ \ \ tomar $\mathbf{x}$ como soluci\'{o}n \textbf{si no:} \ \ \ \ \ \ \ \ \ \ \textbf{Escribir} un mensaje de error en el proceso de c\'{a}lculo \textbf{fin condici\'{o}n}. \textbf{Fin del algoritmo.} \es Apliquemos el algoritmo anterior al ejemplo considerado anteriormente para ilustrar el m\'{e}todo de Newton, es decir, a la resoluci\'{o}n del sistema de ecuaciones: \[ \mathbf{f}(Q_{1},Q_{2},p_{2})=\left( \begin{array}{c} 2.35 e^{-3} (Q_{1}+Q_{2})^{1.75}-75+p_{2} \\ 4.67 e^{-3} Q_{1}^{1.75}+20-p_{2} \\ 3.72 e^{-2} Q_{2}^{1.75}+15-p_{2} \end{array} \right) =\left( \begin{array}{c} 0 \\ 0 \\ 0 \end{array} \right) \] cuya matriz jacobiana est\'{a} dada por: \[ \left[ \mathbf{J}_{\mathbf{f}}(Q_{1},Q_{2},p_{2})\right] =\left[ \begin{array}{rrr} (0.205 (Q_{1}+Q_{2})^{0.75}) & (0.205 (Q_{1}+Q_{2})^{0.75}) & 1 \\ 0.407 Q_{1}^{0.75} & 0 & -1 \\ 0 & 0.881 Q_{2}^{0.75} & -1 \end{array} \right] \] Comenzaremos el proceso con los mismos valores iniciales que utilizamos en el m\'{e}todo de Newton, es decir: \[ \mathbf{x}^{(0)}=\left\{ Q_{1}^{(0)},Q_{2}^{(0)},p_{2}^{(0)}\right\} ^{T}=\left\{ 16,7,50\right\} ^{T} \] La \textbf{primera iteraci\'{o}n} del m\'{e}todo de Broyden coincide con la de Newton por lo que en ella se tiene que: \[ \mathbf{v}=\mathbf{f}(16,7,50)=\left( \begin{array}{c} 3.2623408 \\ -2.3928201 \\ -19.8338430 \end{array} \right) \] con \[ \mathbf{A}=\left[ \mathbf{J}_{\mathbf{f}}(16,7,50)\right] ^{-1}=\left[ \begin{array}{rrr} 0.1379003 & 0.2161114 & -0.0782111 \\ 0.1183890 & -0.0782111 & 0.1966001 \\ 0.4488765 & -0.2965403 & -0.2545832 \end{array} \right] \] por lo que, \[ \mathbf{u}=\mathbf{-A v}=\left( \begin{array}{c} -1.9493924 \\ 3.4943950 \\ -6.5847074 \end{array} \right) \] siendo la nueva aproximaci\'{o}n del vector soluci\'{o}n: \[ \mathbf{x}^{(1)}=\mathbf{x}^{(0)}+\mathbf{u=}\left( \begin{array}{c} 14.0506076 \\ 10.4943950 \\ 43.4152926 \end{array} \right) \] y el valor de la funci\'{o}n que define el sistema en este punto: \[ \mathbf{w}=\mathbf{f}(\mathbf{x}^{(1)})=\left( \begin{array}{c} 8.323233 10^{-2} \\ 2.929796 10^{-1} \\ 2.3902906 \end{array} \right) \] siendo tanto $||\mathbf{u}||_{2}$ como $||\mathbf{w}||_{2}$ superiores a las tolerancias respectivas (10$^{-6}$ para ambas) por lo que se comienzan las siguientes iteraciones. En la \textbf{segunda iteraci\'{o}n}: \[ \mathbf{\delta f}=\mathbf{w-v}=(\mathbf{f}(\mathbf{x}^{(1)})-\mathbf{f}(% \mathbf{x}^{(0)}))=\left( \begin{array}{c} -3.1791085 \\ 0.5322596 \\ 22.2241337 \end{array} \right) \] pasando a actualizar el vector $\mathbf{v}$ mediante \[ \mathbf{v}=\mathbf{w}=\mathbf{f}(\mathbf{x}^{(1)})=\left( \begin{array}{c} 8.323233 10^{-2} \\ 2.929796 10^{-1} \\ 2.3902906 \end{array} \right) \] Con ello los vectores $\mathbf{z}$ , $\mathbf{y}$ y $\mathbf{r}$ del algoritmo de Broyden en esta iteraci\'{o}n ser\'{a}n: \[ z=[\mathbf{A}]^{T} \mathbf{u=}\left( \begin{array}{c} -2.8108445 \\ 1.2580449 \\ 2.5158179 \end{array} \right) \] \[ \mathbf{y}=[\mathbf{A}] \mathbf{\delta f}=\left( \begin{array}{c} -2.0615460 \\ 3.9512660 \\ -7.2427538 \end{array} \right) \] \[ \mathbf{r}=\mathbf{u-y}=\left( \begin{array}{c} 0.1121536 \\ -0.4568710 \\ 0.6580464 \end{array} \right) \] Con estos vectores se tiene que: \[ \alpha =\mathbf{z}^{T}\mathbf{ \delta f}=65.5174604 \] por lo que la matriz tangente actualizada ser\'{a}: \[ \mathbf{A}\leftarrow [\mathbf{A}]+\frac{1}{\alpha } \mathbf{r z}% ^{T}=\] \[\left[ \begin{array}{rrr} 1.330887 \cdot 10^{-1} & 2.182650 \cdot 10^{-1} & -7.390446 \cdot 10^{-2} \\ 1.379898 \cdot 10^{-1} & -8.698375 \cdot 10^{-2} & 1.790566 \cdot 10^{-1} \\ 4.206449 \cdot 10^{-1} & -2.839047 \cdot 10^{-1} & -2.293147 \cdot 10^{-1} \end{array} \right] \] Con esta matriz se tendr\'{a} que el nuevo vector de incrementos ser\'{a}: \[ \mathbf{u=x}^{(2)}-\mathbf{x}^{(1)}=-[\mathbf{A}] \mathbf{v=}\left( \begin{array}{c} 1.016291 \cdot 10^{-1} \\ -4.139981 \cdot 10^{-1} \\ 5.962953 \cdot 10^{-1} \end{array} \right) \] por lo que, \[ \mathbf{x}^{(2)}=\mathbf{x}^{(1)}\mathbf{+u}=\left( \begin{array}{c} 14.1522367 \\ 10.0803968 \\ 44.0115879 \end{array} \right) \] siendo \[ \mathbf{w}=\mathbf{f}(\mathbf{x}^{(2)})=\left( \begin{array}{c} -2.238497 \cdot 10^{-2} \\ -2.407702 \cdot 10^{-3} \\ -3.011495 \cdot 10^{-1} \end{array} \right) \] Puesto que tanto $||\mathbf{u}||_{2}$ como $||\mathbf{w}||_{2}$ son superiores a las tolerancias respectivas (10$^{-6}$ para ambas) se pasar\'{a} a realizar la \textbf{tercera iteraci\'{o}n}. En ella: \[ \mathbf{\delta f}=\mathbf{w-v}=(\mathbf{f}(\mathbf{x}^{(2)})-\mathbf{f}(% \mathbf{x}^{(1)}))=\left( \begin{array}{c} -1.056173 \cdot 10^{-1} \\ -2.953853 \cdot 10^{-1} \\ -2.6914401 \end{array} \right) \] pasando a actualizar el vector $\mathbf{v}$ mediante: \[ \mathbf{v}=\mathbf{w}=\mathbf{f}(\mathbf{x}^{(2)})=\left( \begin{array}{c} -2.238497 \cdot 10^{-2} \\ -2.407702 \cdot 10^{-3} \\ -3.011495 \cdot 10^{-1} \end{array} \right) \] Con ello los vectores $\mathbf{z}$ , $\mathbf{y}$ y $\mathbf{r}$ del algoritmo de Broyden en esta iteraci\'{o}n ser\'{a}n: \[ z=[\mathbf{A}]^{T} \mathbf{u=}\left( \begin{array}{c} 2.0722672 \\ -1.1109786 \\ -2.1837922 \end{array} \right) \] \[ \mathbf{y}=[\mathbf{A}] \mathbf{\delta f}=\left( \begin{array}{c} 1.2038069 \\ -4.7080045 \\ 6.5662072 \end{array} \right) \] \[ \mathbf{r}=\mathbf{u-y}=\left( \begin{array}{c} -1.875159 \cdot 10^{-2} \\ 5.680227 \cdot 10^{-2} \\ -6.032545 \cdot 10^{-2} \end{array} \right) \] Con estos vectores se tiene que: \[ \alpha =\mathbf{z}^{T}\mathbf{ \delta f}=0.5986845 \] por lo que la matriz tangente actualizada ser\'{a}: \[ \mathbf{A}\leftarrow [\mathbf{A}]+\frac{1}{\alpha } \mathbf{r z}% ^{T}=\] \[\left[ \begin{array}{rrr} 1.265981 \cdot 10^{-1} & 2.217447 \cdot 10^{-1} & -6.706453 \cdot 10^{-2} \\ 1.576511 \cdot 10^{-1} & -9.752455 \cdot 10^{-2} & 1.583371 \cdot 10^{-1} \\ 3.9976401 \cdot 10^{-1} & -2.727101 \cdot 10^{-1} & -2.073101 \cdot 10^{-1} \end{array} \right] \] Con esta matriz se tendr\'{a} que el nuevo vector de incrementos ser\'{a}: \[ \mathbf{u=x}^{(3)}-\mathbf{x}^{(2)}=-[\mathbf{A}] \mathbf{v=}\left( \begin{array}{c} -1.682866 10^{-2} \\ 5.097734 10^{-2} \\ -5.413923 10^{-2} \end{array} \right) \] por lo que, \[ \mathbf{x}^{(3)}=\mathbf{x}^{(2)}\mathbf{+u}=\left( \begin{array}{c} 14.1354080 \\ 10.1313741 \\ 43.9574486 \end{array} \right) \] siendo \[ \mathbf{w}=\mathbf{f}(\mathbf{x}^{(3)})=\left( \begin{array}{c} -1.184048 \cdot 10^{-4} \\ 1.791805 \cdot 10^{-3} \\ 7.555445 \cdot 10^{-3} \end{array} \right) \] Puesto que tanto $||\mathbf{u}||_{2}$ como $||\mathbf{w}||_{2}$ son superiores a las tolerancias respectivas (10$^{-6}$ para ambas) se pasar\'{a} a realizar la \textbf{cuarta iteraci\'{o}n}. En ella: \[ \mathbf{\delta f}=\mathbf{w-v}=(\mathbf{f}(\mathbf{x}^{(3)})-\mathbf{f}(% \mathbf{x}^{(2)}))=\left( \begin{array}{c} 2.226656 \cdot 10^{-2} \\ 4.199507 \cdot 10^{-3} \\ 3.087049 \cdot 10^{-1} \end{array} \right) \] pasando a actualizar el vector $\mathbf{v}$ mediante: \[ \mathbf{v}=\mathbf{w}=\mathbf{f}(\mathbf{x}^{(3)})=\left( \begin{array}{c} -1.184048 \cdot 10^{-4} \\ 1.791805 \cdot 10^{-3} \\ 7.555445 \cdot 10^{-3} \end{array} \right) \] Con ello los vectores $\mathbf{z}$ , $\mathbf{y}$ y $\mathbf{r}$ del algoritmo de Broyden en esta iteraci\'{o}n ser\'{a}n: \[ \mathbf{z}=[\mathbf{A}]^{T} \mathbf{u=}\left( \begin{array}{c} -1.573676 \cdot 10^{-2} \\ 6.061109 \cdot 10^{-3} \\ 2.042382 \cdot 10^{-2} \end{array} \right) \] \[ \mathbf{y}=[\mathbf{A}] \mathbf{\delta f}=\left( \begin{array}{c} -1.695303 \cdot 10^{-2} \\ 5.198024 \cdot 10^{-2} \\ -5.624153 \cdot 10^{-2} \end{array} \right) \] \[ \mathbf{r}=\mathbf{u-y}=\left( \begin{array}{c} 1.243689 \cdot 10^{-4} \\ -1.002896 \cdot 10^{-3} \\ 2.102297 \cdot 10^{-3} \end{array} \right) \] Con estos vectores se tiene que: \[ \alpha =\mathbf{z}^{T}\mathbf{ \delta f}=5.979984 \cdot 10^{-3} \] por lo que la matriz tangente actualizada ser\'{a}: \[ \mathbf{A}\leftarrow [\mathbf{A}]+\frac{1}{\alpha } \mathbf{r z}% ^{T}=\] \[\left[ \begin{array}{rrr} 1.262708 10^{-1} & 2.218708 10^{-1} & -6.663977 10^{-2} \\ 1.602903 10^{-1} & -9.854105 10^{-2} & 1.549118 10^{-1} \\ 3.942317 10^{-1} & -2.705793 10^{-1} & -2.031848 10^{-1} \end{array} \right] \] Con esta matriz se tendr\'{a} que el nuevo vector de incrementos ser\'{a}: \[ \mathbf{u=x}^{(4)}-\mathbf{x}^{(3)}=-[\mathbf{A}] \mathbf{v=}\left( \begin{array}{c} 1.208950 \cdot 10^{-4} \\ -9.748824 \cdot 10^{-4} \\ 2.043575 \cdot 10^{-3} \end{array} \right) \] por lo que, \[ \mathbf{x}^{(4)}=\mathbf{x}^{(3)}\mathbf{+u}=\left( \begin{array}{c} 14.1355289 \\ 10.1303992 \\ 43.9594922 \end{array} \right) \] siendo \[ \mathbf{w}=\mathbf{f}(\mathbf{x}^{(4)})=\left( \begin{array}{c} 1.343715 \cdot 10^{-5} \\ 1.068316 \cdot 10^{-4} \\ 6.345653 \cdot 10^{-4} \end{array} \right) \] Puesto que tanto $||\mathbf{u}||_{2}=2.267424 \cdot 10^{-3}$ como $||\mathbf{w% }||_{2}=6.436355 \cdot 10^{-4}$ son superiores a las tolerancias respectivas (10$^{-6}$ para ambas) se pasar\'{a} a realizar la \textbf{quinta iteraci\'{o}n}. En ella: \[ \mathbf{\delta f}=\mathbf{w-v}=(\mathbf{f}(\mathbf{x}^{(4)})-\mathbf{f}(% \mathbf{x}^{(3)}))=\left( \begin{array}{c} 1.318420 \cdot 10^{-4} \\ -1.684974 \cdot 10^{-3} \\ -6.920880 \cdot 10^{-3} \end{array} \right) \] pasando a actualizar el vector $\mathbf{v}$ mediante: \[ \mathbf{v}=\mathbf{w}=\mathbf{f}(\mathbf{x}^{(4)})=\left( \begin{array}{c} 1.343715 \cdot v10^{-5} \\ 1.068316 \cdot 10^{-4} \\ 6.345653 \cdot 10^{-4} \end{array} \right) \] Con ello los vectores $\mathbf{z}$ , $\mathbf{y}$ y $\mathbf{r}$ del algoritmo de Broyden en esta iteraci\'{o}n ser\'{a}n: \[ \mathbf{z}=[\mathbf{A}]^{T} \mathbf{u=}\left( \begin{array}{c} 6.646434 \cdot 10^{-4} \\ -4.300603 \cdot 10^{-4} \\ -5.680580 \cdot 10^{-4} \end{array} \right) \] \[ \mathbf{y}=[\mathbf{A}] \mathbf{\delta f}=\left( \begin{array}{c} 1.040072 \cdot 10^{-4} \\ -8.849542 \cdot 10^{-4} \\ 1.892971 \cdot 10^{-3} \end{array} \right) \] \[ \mathbf{r}=\mathbf{u-y}=\left( \begin{array}{c} 1.688776 \cdot 10^{-5} \\ -8.992822 \cdot 10^{-5} \\ 1.506046 \cdot 10^{-4} \end{array} \right) \] Con estos vectores se tiene que: \[ \alpha =\mathbf{z}^{T}\mathbf{ \delta f}=4.743729 \cdot 10^{-6} \] por lo que la matriz tangente actualizada ser\'{a}: \[ \mathbf{A}\leftarrow [\mathbf{A}]+\frac{1}{\alpha } \mathbf{r z}% ^{T}=\] \[\left[ \begin{array}{rrr} 1.286370 \cdot 10^{-1} & 2.203397 \cdot 10^{-1} & -6.866206 \cdot 10^{-2} \\ 1.476905 \cdot 10^{-1} & -9.038827 \cdot 10^{-2} & 1.656807 \cdot 10^{-1} \\ 4.153328 \cdot 10^{-1} & -2.842329 \cdot 10^{-1} & -2.181648 \cdot 10^{-1} \end{array} \right] \] Con esta matriz se tendr\'{a} que el nuevo vector de incrementos ser\'{a}: \[ \mathbf{u=x}^{(5)}-\mathbf{x}^{(4)}=-[\mathbf{A}] \mathbf{v=}\left( \begin{array}{c} 1.830280 \cdot 10^{-5} \\ -9.746342 \cdot 10^{-5} \\ 1.632240 \cdot 10^{-4} \end{array} \right) \] por lo que, \[ \mathbf{x}^{(5)}=\mathbf{x}^{(4)}\mathbf{+u}=\left( \begin{array}{c} 14.1355472 \\ 10.1303018 \\ 43.9596554 \end{array} \right) \] siendo \[ \mathbf{w}=\mathbf{f}(\mathbf{x}^{(5)})=\left( \begin{array}{c} -5.450506 \cdot 10^{-7} \\ -2.101924 \cdot 10^{-6} \\ -1.624559 \cdot 10^{-5} \end{array} \right) \] Puesto que tanto $||\mathbf{u}||_{2}=1.909874 \cdot 10^{-4}$ como $||\mathbf{w% }||_{2}=1.639007 \cdot 10^{-5}$ son superiores a las tolerancias respectivas (10$^{-6}$ para ambas) se pasar\'{a} a realizar la \textbf{sexta iteraci\'{o}n}. En ella: \[ \mathbf{\delta f}=\mathbf{w-v}=(\mathbf{f}(\mathbf{x}^{(5)})-\mathbf{f}(% \mathbf{x}^{(4)}))=\left( \begin{array}{c} -1.398220 \cdot 10^{-5} \\ -1.089335 \cdot 10^{-4} \\ -6.508109 \cdot 10^{-4} \end{array} \right) \] pasando a actualizar el vector $\mathbf{v}$ mediante: \[ \mathbf{v}=\mathbf{w}=\mathbf{f}(\mathbf{x}^{(5)})=\left( \begin{array}{c} -5.450506 \cdot 10^{-7} \\ -2.101924 \cdot 10^{-6} \\ -1.624559 \cdot 10^{-5} \end{array} \right) \] Con ello los vectores $\mathbf{z}$ , $\mathbf{y}$ y $\mathbf{r}$ del algoritmo de Broyden en esta iteraci\'{o}n ser\'{a}n: \[ \mathbf{z}=[\mathbf{A}]^{T} \mathbf{u=}\left( \begin{array}{c} 5.575227 \cdot 10^{-5} \\ -3.355124 \cdot 10^{-5} \\ -5.301423 \cdot 10^{-5} \end{array} \right) \] \[ \mathbf{y}=[\mathbf{A}] \mathbf{\delta f}=\left( \begin{array}{c} 1.888501 \cdot 10^{-5} \\ -1.000455 \cdot 10^{-4} \\ 1.671392 \cdot 10^{-4} \end{array} \right) \] \[ \mathbf{r}=\mathbf{u-y}=\left( \begin{array}{c} -5.822047 \cdot 10^{-7} \\ 2.582090 \cdot 10^{-6} \\ -3.915274 \cdot 10^{-6} \end{array} \right) \] Con estos vectores se tiene que: \[ \alpha =\mathbf{z}^{T}\mathbf{ \delta f}=3.737755 \cdot 10^{-8} \] por lo que la matriz tangente actualizada ser\'{a}: \[ \mathbf{A}\leftarrow [\mathbf{A}]+\frac{1}{\alpha } \mathbf{r z}% ^{T}=\] \[\left[ \begin{array}{rrr} 1.277686 \cdot 10^{-1} & 2.208623 \cdot 10^{-1} & -6.783630 \cdot 10^{-2} \\ 1.515419 \cdot 10^{-1} & -9.270604 \cdot 10^{-2} & 1.620184 \cdot 10^{-1} \\ 4.094919 \cdot 10^{-1} & -2.807185 \cdot 10^{-1} & -2.126116 \cdot 10^{-1} \end{array} \right] \] Con esta matriz se tendr\'{a} que el nuevo vector de incrementos ser\'{a}: \[ \mathbf{u=x}^{(6)}-\mathbf{x}^{(5)}=-[\mathbf{A}] \mathbf{v=}\left( \begin{array}{c} -5.681645 \cdot 10^{-7} \\ 2.519821 \cdot 10^{-6} \\ -3.820860 \cdot 10^{-6} \end{array} \right) \] por lo que, \[ \mathbf{x}^{(6)}=\mathbf{x}^{(5)}\mathbf{+u}=\left( \begin{array}{c} 14.1355467 \\ 10.1303043 \\ 43.9596516 \end{array} \right) \] siendo \[ \mathbf{w}=\mathbf{f}(\mathbf{x}^{(6)})=\left( \begin{array}{c} 2.998971 \cdot 10^{-9} \\ 3.361990 \cdot 10^{-8} \\ 1.813023 \cdot 10^{-7} \end{array} \right) \] Puesto que $||\mathbf{u}||_{2}=4.612076 \cdot 10^{-6}$ es superior a la tolerancia permitida (10$^{-6})$ a pesar de que ahora $||\mathbf{w}% ||_{2}=1.844175 \cdot 10^{-7}$ es inferior a la tolerancia en el valor de la funci\'{o}n vectorial que define el sistema (tambi\'{e}n 10$^{-6}$ para ambas) se pasar\'{a} a realizar la \textbf{s\'{e}ptima iteraci\'{o}n}. En ella: \[ \mathbf{\delta f}=\mathbf{w-v}=(\mathbf{f}(\mathbf{x}^{(6)})-\mathbf{f}(% \mathbf{x}^{(5)}))=\left( \begin{array}{c} 5.480496 \cdot 10^{-7} \\ 2.135544 \cdot 10^{-6} \\ 1.642689 \cdot 10^{-5} \end{array} \right) \] pasando a actualizar el vector $\mathbf{v}$ mediante: \[ \mathbf{v}=\mathbf{w}=\mathbf{f}(\mathbf{x}^{(6)})=\left( \begin{array}{c} 2.998971 \cdot 10^{-9} \\ 3.361990 \cdot 10^{-8} \\ 1.813023 \cdot 10^{-7} \end{array} \right) \] Con ello los vectores $\mathbf{z}$ , $\mathbf{y}$ y $\mathbf{r}$ del algoritmo de Broyden en esta iteraci\'{o}n ser\'{a}n: \[ \mathbf{z}=[\mathbf{A}]^{T} \mathbf{u=}\left( \begin{array}{c} -1.255348 \cdot 10^{-6} \\ 7.134958 \cdot 10^{-7} \\ 1.259157 \cdot 10^{-6} \end{array} \right) \] \[ \mathbf{y}=[\mathbf{A}] \mathbf{\delta f}=\left( \begin{array}{c} -5.726548 \cdot 10^{-7} \\ 2.546533 \cdot 10^{-6} \\ -3.867612 \cdot 10^{-6} \end{array} \right) \] \[ \mathbf{r}=\mathbf{u-y}=\left( \begin{array}{c} 4.490337 \cdot 10^{-9} \\ -2.671202 \cdot 10^{-8} \\ 4.675664 \cdot 10^{-8} \end{array} \right) \] Con estos vectores se tiene que: \[ \alpha =\mathbf{z}^{T}\mathbf{ \delta f}=2.151975 \cdot 10^{-11} \] por lo que la matriz tangente actualizada ser\'{a}: \[ \mathbf{A}\leftarrow [\mathbf{A}]+\frac{1}{\alpha } \mathbf{r z}% ^{T}=\] \[\left[ \begin{array}{rrr} 1.275066 \cdot 10^{-1} & 2.210112 \cdot 10^{-1} & -6.757356 \cdot 10^{-2} \\ 1.531002 \cdot 10^{-1} & -9.359168 \cdot 10^{-2} & 1.604554 \cdot 10^{-1} \\ 4.067653 \cdot 10^{-1} & -2.791682 \cdot 10^{-1} & -2.098756 \cdot 10^{-1} \end{array} \right] \] Con esta matriz se tendr\'{a} que el nuevo vector de incrementos ser\'{a}: \[ \mathbf{u=x}^{(7)}-\mathbf{x}^{(6)}=-[\mathbf{A}] \mathbf{v=}\left( \begin{array}{c} 4.438482 \cdot 10^{-9} \\ -2.640355 \cdot 10^{-8} \\ 4.621670 \cdot 10^{-8} \end{array} \right) \] por lo que, \[ \mathbf{x}^{(7)}=\mathbf{x}^{(6)}\mathbf{+u}=\left( \begin{array}{c} 14.1355467 \\ 10.1303043 \\ 43.9596517 \end{array} \right) \] siendo \[ \mathbf{w}=\mathbf{f}(\mathbf{x}^{(7)})=\left( \begin{array}{c} 4.551615 \cdot 10^{-11} \\ 5.687885 \cdot 10^{-10} \\ 2.995289 \cdot 10^{-9} \end{array} \right) \] Puesto que $||\mathbf{u}||_{2}=5.341189 10^{-8}$ y $||\mathbf{w}% ||_{2}=3.049155 10^{-9}$ son inferiores a la tolerancia dada para ellas se detiene el proceso iterativo dando como soluci\'{o}n: \[ Q_{1}=14.1355467,\;Q_{2}=10.1303043,\;Q=Q_{1}+Q_{2}=24.265851 \] y: \[ p_{2}=43.9596517 \] es decir, los mismos valores que los obtenidos con el m\'{e}todo de Newton-Raphson (hallados ahora en 7 iteraciones en lugar de en 4 pero no habiendo tenido que invertir ni calcular la matriz jacobiana en cada iteraci\'{o}n). Con todo en este caso en el que el n\'{u}mero de ecuaciones es $3 (<10)$ el m\'{e}todo de Broyden es m\'{a}s costoso por iteraci\'{o}n que el de Newton. Esperamos de la benevolencia del lector que entienda por ello que lo anterior simplemente pretende ilustrar la metodolog\'{\i}a seguida en el m\'{e}todo de Broyden, pues para apreciar el ahorro computacional deber\'{\i}a haberse acudido a un sistema con mayor n\'{u}mero de ecuaciones bastante m\'{a}s ``pesado'' de transcribir en el papel. \beobse Se observa lo siguiente: \begin{enumerate} \item El an\'{a}lisis detallado de la convergencia del m\'{e}todo de Broyden escapa a la disponibilidad temporal de este curso por lo que remitimos al lector a la bibliograf\'{\i}a que se cita al final del cap\'{\i}tulo (v\'{e}ase por ejemplo De La Fuente O'Connor [7]). En dicha referencia bibliogr\'{a}fica puede encontrar el lector la justificaci\'{o}n detallada de que el proceso debido Broyden es el que introduce menores cambios en la matriz $[\mathbf{A}^{(i-1)}]$ y que, cuando la matriz jacobiana es lipschitciana, el ``deterioro'' de la matriz jacobiana al ser sustituida esta por su aproximaci\'{o}n es lo suficientemente ``lento'' como para poder probar la convergencia local del m\'{e}todo sobre dominios $D$ convexos. \item Para el caso particular de que la matriz jacobiana sea sim\'{e}trica se puede modificar el m\'{e}todo anterior reduciendo aun m\'{a}s su coste computacional. Ello se hace por ejemplo en el m\'{e}todo BFGS (debido a Broyden, Fletcher, Goldfab y Shano). \end{enumerate} \enobse \subsection{Algunos comentarios sobre los m\'{e}todos de resoluci\'{o}n de sistemas de ecuaciones no lineales} 1${{}^o}$) El m\'{e}todo de Newton-Raphson y sus variantes pueden escribirse en la forma: \[ \mathbf{x}^{(i+1)}=\mathbf{x}^{(i)}+\mathbf{d}^{(i)}\;\;\;\;\;\;(i=0,1,....) \] donde \[ \mathbf{d}^{(i)}=-\left[ \mathbf{A}^{(i)}\right] \mathbf{f}(\mathbf{x}% ^{(i)}) \] siendo $\left[ \mathbf{A}^{(i)}\right] $ la matriz tangente utilizada en el m\'{e}todo (es decir, la jacobiana o una aproximaci\'{o}n de ella en el punto $\mathbf{x}^{(i)}).$ Ello da pie a considerar familias de m\'{e}todos de la forma: \[ \mathbf{x}^{(i+1)}=\mathbf{x}^{(i)}+\alpha ^{(i)} \mathbf{d}% ^{(i)}\;\;\;\;\;\;(i=0,1,....) \] donde $\mathbf{d}^{(i)}$ es la denominada \textbf{direcci\'{o}n de descenso} y $\alpha ^{(i)}$ es el \textbf{par\'{a}metro de descenso}. En general la direcci\'{o}n de descenso $\mathbf{d}^{(i)}$ puede ser una direcci\'{o}n seguida para pasar de un punto $\mathbf{x}^{(i)}$ a otro $\mathbf{x}^{(i+1)}$ (por ejemplo la seguida en el m\'{e}todo de Newton-Raphson o en alguna de sus variantes) y el par\'{a}metro de descenso $\alpha ^{(i)}$ se toma en cada iteraci\'{o}n de forma que se minimice el valor de \[ \mathbf{f}(\mathbf{x}^{(i)}+\alpha ^{(i)} \mathbf{d}^{(i)}) \] lo que implica que para su determinaci\'{o}n deba resolverse el sistema: \[ \frac{d\mathbf{f}}{d\alpha }(\mathbf{x}^{(i)}+\alpha \mathbf{d}^{(i)})=% \mathbf{0} \] Para ello se han ideado diferentes estrategias. La m\'{a}s simple, debida a Armijo, consiste en, conocidos $\mathbf{x}^{(i)}$ y $\mathbf{d}^{(i)},$ evaluar: \[ \left\| \mathbf{f}(\mathbf{x}^{(i)}+\alpha ^{(i)} \mathbf{d}% ^{(i)})\right\| \] para los valores de $\alpha =1,$ $\frac{1}{2},$ $\frac{1}{4},$ ....hasta determinar un valor de $\alpha $ para el que se satisfaga la relaci\'{o}n: \[ \left\| \mathbf{f}(\mathbf{x}^{(i)}+\alpha ^{(i)} \mathbf{d}% ^{(i)})\right\| \leq \left( 1-\frac{\alpha }{2}\right) \left\| \mathbf{% f}(\mathbf{x}^{(i)})\right\| \] momento en el que se tomar\'{a} dicho valor de $\alpha $ como par\'{a}metro de descenso. En De La Fuente O'Connor [7], por ejemplo, pueden encontrarse los detalles que justifican esta forma de proceder. \es 2${{}^{o}}$) La estructura que se ha dado a los m\'{e}todos de descenso, contemplados en el comentario anterior, nos conduce a los denominados \textbf{m\'{e}todos de tipo gradiente} basados en la teor\'{i}a de optimizaci\'{o}n. En ellos dado el sistema no lineal $\mathbf{f}(\mathbf{x})=% \mathbf{0}$ se considera la funci\'{o}n residuo \[ r(\mathbf{x})=\frac{1}{2}\sum% \limits_{j=1}^{n}f_{i}^{2}(x_{1},x_{2},...,x_{n})=\frac{1}{2}\left\| \mathbf{% f}(\mathbf{x})\right\| _{2}^{2} \] Esta funci\'{o}n residuo siempre tomar\'{a} valores positivos o nulos. Ser\'{a} precisamente en los puntos en los que se verifique el sistema de ecuaciones en los que el residuo tome el valor nulo. Por ello el problema se reduce a buscar los m\'{\i}nimos de la funci\'{o}n residuo $r(\mathbf{x}).$ Para ello partiendo de un punto $\mathbf{x}^{(0)}$ tomado arbitrariamente se sigue el esquema iterativo: \[ \mathbf{x}^{(i+1)}=\mathbf{x}^{(i)}+\rho _{i} \mathbf{d}% ^{(i)}\;\;\;\;\;\;(i=0,1,...) \] La direcci\'{o}n de descenso que ahora se sigue est\'{a} relacionada con el gradiente de la funci\'{o}n residuo (y de ah\'{i} el nombre de este tipo de m\'{e}todos): \[ \dis \nabla r(\mathbf{x}^{(i)})=\dis \left( \begin{array}{c} \dis \frac{\partial r}{\partial x_{1}}(\mathbf{x}^{(i)}) \\ [0.4cm] \noalign{\smallskip} \dis \frac{\partial r}{\partial x_{2}}(\mathbf{x}^{(i)}) \\ [0.4cm] \noalign{\smallskip} ..... \\ [0.4cm] \noalign{\smallskip} \dis \frac{\partial r}{\partial x_{n}}(\mathbf{x}^{(i)}) \end{array} \right) \] El par\'{a}metro de descenso $\rho _{i}$ en cada iteraci\'{o}n se determina minimizando el valor de: \[ r(\mathbf{x}^{(i)}+\rho \mathbf{d}^{(i)}) \] mediante t\'{e}cnicas similares a la de Armijo antes descrita o interpolando (en 3 o 4 valores dados del par\'{a}metro de descenso) la funci\'{o}n residuo mediante una par\'{a}bola (algoritmo de Powell) o mediante un polinomio de grado 3 (algoritmo de Davidon). Uno de los problemas que plantea esta forma de proceder es que los m\'{e}todos de tipo gradiente son m\'{e}todos de tipo diferencial, es decir que buscan puntos en los que la diferencial del residuo se anula (o lo que es m\'{a}s preciso, en los que se anula el gradiente del residuo). Ello nos puede conducir a m\'{\i}nimos \textit{locales} del residuo en los que este no toma valor nulo (por lo que no se satisface en ellos el sistema de ecuaciones). Nuevamente, remitimos al lector a la bibliograf\'{\i}a sobre el tema (por ejemplo Burden \& Faires [3]) para un estudio detallado de estos m\'{e}todos. \es 3${{}^{o}}$) Dada la relaci\'{o}n existente entre la b\'{u}squeda de soluciones del sistema y la minimizaci\'{o}n de funciones (por ejemplo de la funci\'{o}n residuo contemplada en el comentario anterior) en las \'{u}ltimas d\'{e}cadas se han desarrollado m\'{e}todos diferenciales de optimizaci\'{o}n local (como el de Marquardt \& Levenberg que se describe en De La Fuente O'Connor [7]) o m\'{e}todos de b\'{u}squeda directa para optimizaci\'{o}n global (como los basados en algoritmia gen\'{e}tica) que tambi\'{e}n pueden adaptarse f\'{a}cilmente a la determinaci\'{o}n de soluciones de sistemas de ecuaciones no lineales. El estudio de estos m\'{e}todos corresponde a la materia denominada como Optimizaci\'{o}n y desborda los objetivos del presente curso. \es 4${{}^{o}}$) Otra familia de m\'{e}todos para la resoluci\'{o}n de sistemas de ecuaciones no lineales son los m\'{e}todos de continuaci\'{o}n en los que el vector $\mathbf{x}$ que interviene en la definici\'{o}n del sistema $% \mathbf{f}(\mathbf{x})=\mathbf{0}$ se hace depender de un par\'{a}metro $% \lambda $ que toma valores entre $0$ y $1$ y de tal forma que $\mathbf{x}(1)$ sea una soluci\'{o}n $\mathbf{x}^{*}$ del sistema. M\'{a}s concretamente dado un vector inicial $\mathbf{x}^{(0)}$ se puede considerar la funci\'{o}n \[ \mathbf{f}(\mathbf{x}(\lambda ))=(1-\lambda ) \mathbf{f}(\mathbf{x}% ^{(0)}) \] para la que se verifica que: \[ \mathbf{f}(\mathbf{x}(0))=\mathbf{f}(\mathbf{x}^{(0)}) \] \[ \mathbf{f}(\mathbf{x}(1))=\mathbf{0} \] por lo que $\mathbf{x}^{*}=\mathbf{x}(1).$ La expresi\'{o}n considerada para $\mathbf{f}(\mathbf{x}(\lambda ))$ define impl\'{\i}citamente la funci\'{o}n $% \mathbf{x}(\lambda ).$ Asumiendo condiciones suficientes de regularidad puede derivarse dicha expresi\'{o}n obteniendo: \[ \left\{ \begin{array}{c} \dis \left[ \mathbf{J}_{\mathbf{f}}(\mathbf{x})\right] \left( \begin{array}{c} \dis \frac{dx_{1}}{d\lambda }(\lambda ) \\ [0.2cm] \noalign{\smallskip} \dis \frac{dx_{2}}{d\lambda }(\lambda ) \\ [0.2cm] \noalign{\smallskip} ... \\ [0.2cm] \noalign{\smallskip} \dis \frac{dx_{n}}{d\lambda }(\lambda ) \end{array} \right) =-\mathbf{f}(\mathbf{x}^{(0)}) \\ [0.8cm] \noalign{\smallskip} \mathbf{x}(0)=\mathbf{x}^{(0)} \end{array} \right\} \qquad \lambda \in [0,1] \] Este sistema diferencial ordinario de primer orden puede entonces ser resuelto (por ejemplo utilizando alg\'{u}n m\'{e}todo num\'{e}rico como los que se estudiar\'{a}n en el tema siguiente) determin\'{a}ndose una aproximaci\'{o}n del valor de $\mathbf{x}^{*}=\mathbf{x}(1).$ \es 5${{}^{o}}$) Determinado un punto soluci\'{o}n del sistema de ecuaciones no lineales, otras soluciones se pueden buscar eliminando dichas soluciones del sistema mediante una estrategia de deflacci\'{o}n an\'{a}loga a la descrita en el sexto comentario sobre los m\'{e}todos para la resoluci\'{o}n de una \'{u}nica ecuaci\'{o}n no lineal. Dejamos al lector el desarrollo detallado de esta estrategia de deflacci\'{o}n en el caso n-dimensional. \es 6${{}^{o}}$) En Press et al. [12] (y en diferentes ``sitios'' de internet) pueden encontrarse bi\-blio\-te\-cas de c\'{o}digos que implementan los m\'{e}todos tratados en este tema y muchos otros. Asimismo, los paquetes inform\'{a}ticos MAPLE, MATLAB, MATHEMATICA, y otros incluyen poderosas rutinas de resoluci\'{o}n de sistemas no lineales. \es 7${{}^{o}}$) Tambi\'{e}n para el caso de sistemas no lineales puede utilizarse la t\'{e}cnica de aceleraci\'{o}n de Aitken (algoritmo conocido como m\'{e}todo $\Delta ^{2}$ modificado que b\'{a}sicamente aplica la t\'{e}cnica vista para una ecuaci\'{o}n a cada una de las ecuaciones del sistema). No obstante, como se recoge por ejemplo en O.T. Hanna y O.C. Sandall [9], a diferencia de lo que suced\'{i}a en el caso de una \'{u}nica ecuaci\'{o}n, esta t\'{e}cnica no siempre funciona sobre los sistemas de varias ecuaciones, pudiendo incluso darse el caso de que el m\'{e}todo de aproximaciones sucesivas por s\'{\i} solo converja en tanto que si le combina con la t\'{e}cnica $\Delta ^{2}$ diverja. Remitimos al lector interesado a la referencia citada para obtener un mayor detalle al respecto. \newpage \subsection{Un programa FORTRAN para la resoluci\'{o}n de sistemas no lineales. Aplicaci\'{o}n a la resoluci\'{o}n del sistema lineal planteado en la motivaci\'{o}n de este tema} Al lector que haya seguido estas ciento y muchas p\'{a}ginas sobre los m\'{e}todos de resoluci\'{o}n de sistemas de ecuaciones lineales no le podemos dejar sin la soluci\'{o}n del sistema lineal al que nos conduc\'{\i}a el ejemplo, tomado de Hanna \& Sandal [9] que recog\'{\i}amos como motivaci\'{o}n a este tema. Recordemos que dicho sistema ven\'{\i}a dado por las ecuaciones: \[ \frac{x_{1}(x_{1}-x_{2}+2x_{4})D^{2}}{% (3-3x_{1}+x_{2}-5x_{4})^{3}(1-x_{1}-x_{2}+2x_{3}-2x_{4})}=69.18 \] \[ \frac{(x_{2}-x_{3})(3-3x_{1}+x_{2}-5x_{4})}{% (1-x_{1}-x_{2}+2x_{3}-2x_{4})(x_{1}-x_{2}+2x_{4})}=4.68 \] \[ \frac{(1-x_{1}-x_{2}+2x_{3}-2x_{4})^{2}}{(x_{2}-x_{3})D}=0.0056 \] \[ \frac{x_{4}(x_{1}-x_{2}+2x_{4})^{2}D^{4}}{% (3-3x_{1}+x_{2}-5x_{4})^{5}(1-x_{1}-x_{2}+2x_{3}-2x_{4})^{2}}=0.141 \] donde $x_{1,}\;x_{2},$ $x_{3}$ y $x_{4}$ eran las coordenadas de reacci\'{o}n de las 4 reacciones relevantes del equilibrio qu\'{\i}mico a 500$% {{}^o}$C de una mezcla de 1 mol de $CO$ y de 3 moles de $H_{2}$, siendo $% D=(4-2.x_{1}+x_{3}-4.x_{4})$ y estando relacionadas estas coordenadas de reacci\'{o}n con las fracciones molares de las distintas especies presentes en el equilibrio a trav\'{e}s de las expresiones: \begin{eqnarray*} y_{1} &=&(3-3x_{1}+x_{2}-5x_{4})/D \\ y_{2} &=&(1-x_{1}-x_{2}+2x_{3}-2x_{4})/D \\ y_{3} &=&x_{1}/D \\ y_{4} &=&(x_{1}-x_{2}+2x_{4})/D \\ y_{5} &=&(x_{2}-x_{3})/D \\ y_{6} &=&x_{4}/D \end{eqnarray*} habi\'{e}ndose designado por especie 1 al H$_{2},$ por especie 2 al CO, por especie 3 al CH$_{4}$, por especie 4 al H$_{2}$O, por especie 5 al CO$_{2}$ y por especie 6 al C$_{2}$H$_{6}$. Para evitar ``problemas'' en el sistema a resolver en el caso de que algunos denominadores puedan tomar valores muy pr\'{o}ximos a $0,$ rescribiremos el sistema en la forma: \[ f_{1}(\mathbf{x})=x_{1} (x_{1}-x_{2}+2x_{4}) D^{2}- \] \[ -69.18 (3-3 x_{1}+x_{2}-5 x_{4})^{3}(1-x_{1}-x_{2}+2 x_{3}-2 x_{4})=0 \] \[ f_{2}(\mathbf{x})=(x_{2}-x_{3}) (3-3 x_{1}+x_{2}-5 x_{4})- \] \[ -4.68 (1-x_{1}-x_{2}+2x_{3}-2x_{4})(x_{1}-x_{2}+2x_{4})=0 \] \[ f_{3}(\mathbf{x})=(1-x_{1}-x_{2}+2 x_{3}-2 x_{4})^{2}- \] \[ -0.0056 (x_{2}-x_{3}) D=0 \] \[ f_{4}(\mathbf{x})=x_{4} (x_{1}-x_{2}+2x_{4})^{2} D^{4}- \] \[ -0.141 (3-3 x_{1}+x_{2}-5 x_{4})^{5}(1-x_{1}-x_{2}+2 x_{3}-2 x_{4})^{2}=0 \] Este sistema compuesto por las cuatro funciones anteriores puede ser resuelto mediante el m\'{e}todo de Newton. Puesto que el estimar la expresi\'{o}n de la matriz jacobiana puede ser laborioso, se ha optado por aproximar la matriz tangente mediante diferencias finitas. Asimismo, puesto que realizar manualmente las operaciones es una tarea muy tediosa se ha optado por realizar un ``peque\~{n}o'' programa en FORTRAN que recoja esta estrategia. El programa, que se incluye a continuaci\'{o}n, refleja fielmente el m\'{e}todo de Newton-Raphson (v\'{e}ase la subrutina NEWTON y las que desde ella se llaman) incluyendo tambi\'{e}n la estimaci\'{o}n de las fracciones molares.\ F\'{a}cilmente adaptar\'{a} el lector este programa al caso general para que pueda servirle en los ejercicios que se le puedan plantear. En todo caso, hemos escrito en letra it\'{a}lica las sentencias que por ser espec\'{\i}ficas de este ejemplo, pueden ser eliminadas para adaptarlo al caso general. %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\include{tema1_3} \begin{verbatim} C********************************************************************** C PROGRAMA SNLNEWT * C********************************************************************** C OBJETO: * C ------- * C RESOLUCION DE UN SISTEMA DE ECUACIONES NO LINEALES MEDIANTE EL * C METODO DE NEWTON UTILIZANDO LAS EXPRESIONES ANALITICAS DE LAS * C DERIVADAS O UNA APROXIMACION DE ELLAS EN LOS PUNTOS EN QUE SE * C NECESITEN * C REFERENCIA: C. Conde y G. Winter. (1.990). "Métodos y * C Algoritmos B\'asicos del Algebra Num\'erica''. Ed. Revert\'e. * C********************************************************************** C DICCIONARIO DE VARIABLES: * C ------------------------- * C * VARIABLES DE ENTRADA: * C EPS --> PARAMETRO USADO PARA DETENER EL PROCESO ITERATIVO * C CUANDO ESTE CONVERGE. * C EPSF --> PARAMETRO USADO PARA DETENER EL PROCESO ITERATIVO * C CUANDO ESTE CONVERGE. * C EPSD --> PARAMETRO DE TOLERANCIA USADO EN LA APROXIMACION DE * C LAS DERIVADAS PARCIALES QUE FORMAN LA MATRIZ JACO- * C BIANA. SOLO ES UTILIZADO CUANDO IOPCION TOMA UN * C VALOR DIFERENTE A LA UNIDAD. * C FICDAT --> NOMBRE DEL FICHERO CONTENIENDO LOS DATOS DE ENTRADA.* C FICOUT --> NOMBRE DEL FICHERO DE RESULTADOS. * C IOPCION--> INDICADOR QUE TOMA EL VALOR: * C 1: SI SE EVALUA LA MATRIZ JACOBIANA DE FORMA * C EXACTA * C OTRO VALOR: SI LA MATRIZ JACOBIANA SE EVALUA * C DE FORMA APROXIMADA. * C MAXIT --> NUMERO MAXIMO DE ITERACIONES QUE SE PERMITE REALIZAR* C N --> NUMERO DE ECUACIONES NO LINEALES QUE FORMAN EL * C SISTEMA. * C SF --> FACTOR DE SEGURIDAD UTILIZADO EN LA ESTIMACION DE LA* C MATRIZ JACOBIANA. SOLO ES USADO SI OPCION TOMA UN * C VALOR DIFERENTE A LA UNIDAD. * C X --> VECTOR CON EL QUE SE INICIALIZA EL METODO. * C * C * VARIABLES DE SALIDA: * C -------------------- * C ITER --> NUMERO DE ITERACIONES REALIZADAS. * C X --> VECTOR SOLUCION DEL SISTEMA. * C TOL --> NORMA-2 DEL VECTOR DIFERENCIA ENTRE LOS VECTORES * C HALLADOS EN LAS DOS ULTIMAS ITERACIONES. * C * C NOTA: Estos resultados se proporcionaran solo en el caso de * C haberse obtenido una solucion suficientemente precisa * C en un numero de iteraciones menor o igual que MAXIT. * C En caso contrario se emitirá un mensaje de error. * C * C * OTRAS VARIABLES UTILIZADAS: * C --------------------------- * C I --> VARIABLE DE CONTROL EN LOS BUCLES. * C********************************************************************** C SUBPROGRAMAS UTILIZADOS: * C ------------------------ * C SUBROUTINE NEWTON (N, MAXIT, IOPCION, EPS, EPSF, H, X, ITER, C TOL,TOLF,EPSD,SF) * C Esta subrutina es en la que se realizan todos los cálculos del * C metodo de Newton. * C * C FUNCTION F(I, X) * C Este subprograma permite evaluar la funcion que define el siste-* C ma en el vector X. La variable I indica la componente de la fun-* C cion que se evalua. * C********************************************************************** C FICHEROS UTILIZADOS: * C -------------------- * C * LOS DATOS SON LEIDOS DE UN FICHERO CUYO NOMBRE ES SOLICITADO AL * C USUARIO (Y ALMACENADO EN LA VARIABLE FICDAT). EN LAS SUCESIVAS * C LINEAS DE ESTE FICHERO SE GRABARAN LOS VALORES DE LAS SIGUIENTES * C VARIABLES: * C Linea 1: N, MAXIT, IOPCION * C Linea 2: EPS, EPSF, EPSD, SF * C Linea 3: X(1) * C Linea 4: X(2) * C Linea 5: X(3) * C ....... ... * C Linea N+2: X(N) * C * C * LOS RESULTADOS SE GRABAN EN UN FICHERO CUYO NOMBRE ES SOLICITADO * C AL USUARIO (Y ALMACENADO EN AL VARIABLE FICOUT). EN EL SE GRABAN * C DEBIDAMENTE IDENTIFICADOS LOS VALORES DE ITER, TOL Y LAS COMPO- * C NENTES DEL VECTOR SOLUCION. * C********************************************************************** C PROGRAMADORES Y FECHA DE PROGRAMACION: * C -------------------------------------- * C CARLOS CONDE LAZARO Y EMANUELE SCHIAVI * C ESCUELA SUPERIOR DE CIENCIAS EXPERIMENTALES Y TECNOLOGIA. * C UNIVERSIDAD REY JUAN CARLOS. * C JULIO DE 1.998 * C********************************************************************** C C Definicion de variables C IMPLICIT NONE INTEGER*4 I, IOPCION, ITER, MAXIT, N REAL*8 EPS, EPSF, TOL, TOLF, X[ALLOCATABLE](:), EPSD, F, SF CHARACTER*12 FICDAT, FICOUT C C Escritura en pantalla de la cabecera del programa C WRITE(*, 100) WRITE(*, 101) READ(*,*) C C Lectura de teclado de los nombres de los ficheros de datos y C resultados y apertura del fichero de datos. C WRITE(*,*) 'TECLEE EL NOMBRE DEL FICHERO DE DATOS:' READ(*, '(A)') FICDAT WRITE(*,*) 'TECLEE EL NOMBRE DEL FICHERO DE RESULTADOS:' READ(*,'(A)') FICOUT OPEN (1, FILE = FICDAT, STATUS = 'OLD') C C Lectura del fichero de los datos del programa y cierre del fichero C de datos. C READ(1, *) N, MAXIT, IOPCION ALLOCATE (X(N)) IF (IOPCION.EQ.1) THEN READ(1, *) EPS, EPSF ELSE READ(1, *) EPS, EPSF, EPSD, SF END IF DO I = 1, N READ(1,*) X(I) END DO CLOSE (1) C C Apertura del fichero de resultados C OPEN (2, FILE = FICOUT, STATUS = 'UNKNOWN') C C Llamada a la subrutina de calculo C CALL NEWTON (N,MAXIT,IOPCION,EPS,EPSF,X,ITER,TOL,TOLF,EPSD,SF) C C Escritura de resultados C WRITE(2,105) IF ((TOL.LE.EPS).AND.(TOLF.LE.EPSF)) THEN WRITE(2, 102) ITER, TOL WRITE(*, 102) ITER, TOL DO I = 1, N WRITE(2, 103) I, X(I), F(I,X) WRITE(*, 103) I, X(I), F(I,X) END DO ELSE WRITE(2, 104) WRITE(*, 104) WRITE(2, 102) ITER, TOL WRITE(*, 102) ITER, TOL DO I = 1, N WRITE(2, 103) I, X(I), F(I,X) WRITE(*, 103) I, X(I), F(I,X) END DO END IF C C Cierre del fichero de resultados, formatos de escritura y C finalizacion del programa C CLOSE (2) STOP 100 FORMAT(20X,'PROGRAMA SNLNEWT'//3X, 'ESTE PROGRAMA RESUELVE UN SIST &EMA DE ECUACIONES NO LINEALES'/3X,'MEDIANTE EL METODO DE NEWTON'// &3X,'PARA SU EJECUCION ES NECESARIO QUE PROGRAME LA FUNCION VECTORI &AL'/3X,'QUE DEFINE EL SISTEMA F(X) = 0 EN EL SUBPROGRAMA FUNCTION &F(I,X)'//3X,'ASIMISMO DEBE GRABAR UN FICHERO DE DATOS CON LA ESTRU &CTURA QUE'/3X,'SE DESCRIBE EN LA CABECERA DEL LISTADO DE ESTE PROG &RAMA'//) 101 FORMAT(3X,'ESTE PROGRAMA HA SIDO ESCRITO POR:'/6X,'CARLOS CONDE LA &ZARO'/6X,'ESCUELA SUPERIOR DE CIENCIAS EXPERIMENTALES Y TECNOLOGIA &'/6X,'UNIVERSIDAD REY JUAN CARLOS'/6X,'MOSTOLES (MADRID)'//6X,'ema &il: cconde@escet.urjc.es'//10X,'PULSE LA TECLA DE RETURN PARA CONTI &NUAR'/) 102 FORMAT(20X,'METODO DE NEWTON ----SOLUCIONES'/20X,'================ &================='///5X,'NUMERO DE ITERACIONES REALIZADAS: ',I4,/ &5X,'PARAMETRO DE TOLERANCIA DE ERROR: 'G20.10//15X,'VECTOR SOLUCIO &N'/15X,'---------------'//) 103 FORMAT(7X,'X(',I3,') = ',G15.6,4X,'(RESIDUO = ',G15.6,')') 104 FORMAT(5X,'ATENCION --> EN LAS ITERACIONES PERMITIDAS NO SE PUDO'/ &18X,'HALLAR LA SOLUCION CON LA PRECISION DESEADA') 105 FORMAT(20X,'PROGRAMA SNLNEWT'//3X, 'ESTE PROGRAMA RESUELVE UN SIST &EMA DE ECUACIONES NO LINEALES'/3X,'MEDIANTE EL METODO DE NEWTON'// &/3X,'Programadores: CARLOS CONDE LAZARO y EMANUELE SCHIAVI'/16X, &'ESCUELA SUPERIOR DE CIENCIAS EXPERIMENTALES Y TECNOLOGIA'/16X, &'UNIVERSIDAD REY JUAN CARLOS'/16X,'MOSTOLES (MADRID)'//16X,'email: & carlos.conde@upm.es'/16X,'email:emanuele.schiavi@urjc.es'///) END C C********************************************************************** C MODULO ACTUALIZA * C********************************************************************** C OBJETO: * C ------- * C RESTAR AL VECTOR X EL VECTOR B. * C********************************************************************** C DICCIONARIO DE VARIABLES: * C ------------------------- * C * VARIABLES DE ENTRADA: * C B --> VECTOR QUE SE SUMA AL VECTOR X. * C N --> NUMERO DE COMPONENTES DE LOS VECTORES. * C X --> VECTOR AL QUE SE SUMA B. * C * C * VARIABLES DE SALIDA: * C X --> VECTOR ACTUALIZADO. * C * C * OTRAS VARIABLES UTILIZADAS: * C I --> VARIABLE DE CONTROL EN BUCLES * C * C********************************************************************** C SUBPROGRAMAS UTILIZADOS: * C ======================== * C NINGUNO * C********************************************************************** C FICHEROS UTILIZADOS: * C -------------------- * C NINGUNO. * C********************************************************************** C PROGRAMADORES Y FECHA DE PROGRAMACION: * C -------------------------------------- * C CARLOS CONDE LAZARO Y EMANUELE SCHIAVI * C ESCUELA SUPERIOR DE CIENCIAS EXPERIMENTALES Y TECNOLOGIA. * C UNIVERSIDAD REY JUAN CARLOS. * C JULIO DE 1.998 * C********************************************************************** C SUBROUTINE ACTUALIZA (N, X, B) C C Definicion de variables C IMPLICIT NONE INTEGER*4 I, N REAL*8 B(*),X(*) C C Actualizacion del vector X C DO I = 1, N X(I) = X(I) - B(I) END DO C C Finalizacion C RETURN END C C********************************************************************** C MODULO EVALF * C********************************************************************** C OBJETO: * C ------- * C EVALUACION DE LOS VALORES DE UNA FUNCION VECTORIAL. * C********************************************************************** C DICCIONARIO DE VARIABLES: * C ------------------------- * C * VARIABLES DE ENTRADA: * C N --> NUMERO DE COMPONENTES DE LA FUNCION VECTORIAL QUE * C SE EVALUA Y DEL VECTOR EN EL QUE SE EVALUA. * C X --> VECTOR EN EL QUE SE EVALUA LA FUNCION. * C * VARIABLES DE SALIDA: * C B --> VECTOR EN EL QUE SE ALMACENAN LOS VALORES * C CALCULADOS. * C * OTRAS VARIABLES UTILIZADAS: * C I --> VARIABLE UTILIZADA EN EL CONTROL DE BUCLES. * C********************************************************************** C SUBPROGRAMAS UTILIZADOS: * C ======================== * C REAL*8 FUNCTION F(I,X) En este modulo se define la funcion a * C evaluar de tal forma que para un valor concreto de I, * C F(I,X) es la expresion analitica de la I-esima componen- * C te de la funcion. * C********************************************************************** C FICHEROS UTILIZADOS: * C -------------------- * C NINGUNO. * C********************************************************************** C PROGRAMADORES Y FECHA DE PROGRAMACION: * C -------------------------------------- * C CARLOS CONDE LAZARO Y EMANUELE SCHIAVI * C ESCUELA SUPERIOR DE CIENCIAS EXPERIMENTALES Y TECNOLOGIA. * C UNIVERSIDAD REY JUAN CARLOS. * C JULIO DE 1.998 * C********************************************************************** C SUBROUTINE EVALF (N, X, B) C C Definicion de variables C IMPLICIT NONE INTEGER*4 I, N REAL*8 B(*), F, X(*) C C Evaluacion del vector de valores de la funcion vectorial C DO I = 1, N B(I) = F(I,X) END DO C C Finalizacion C RETURN END C C********************************************************************* C MODULO GAUSS * C********************************************************************* C OBJETO: * C ------- * C RESOLUCION DE UN SISTEMA LINEAL DE ECUACIONES POR EL METODO * C DE GAUSS CON PIVOTE PARCIAL Y CON UN REFINAMIENTO DE LA * C SOLUCION. * C********************************************************************* C DICCIONARIO DE VARIABLES: * C ------------------------- * C * VARIABLES DE ENTRADA: * C A --> MATRIZ DEL SISTEMA. * C B --> VECTOR DE SEGUNDOS MIEMBROS. * C N --> NUMERO DE ECUACIONES DEL SISTEMA. * C * C * VARIABLES DE SALIDA: * C B --> VECTOR SOLUCION. * C * C * OTRAS VARIABLES DE INTERES: * C AA --> MATRIZ EN QUE SE GUARDA LA MATRIZ DEL SISTEMA * C ANTES DE TRIANGULARIZARLA. * C FILA --> VECTOR INDICANDO LAS PERMUTACIONES DE FILAS REA- * C LIZADAS EN EL PROCESO DE PIVOTAJE PARCIAL. * C RES --> VECTOR DE RESIDUOS TRAS LA PRIMERA APROXIMACION * C DE LA SOLUCION. * C********************************************************************** C FICHEROS UTILIZADOS: * C -------------------- * C Ninguno. * C********************************************************************** C SUBPROGRAMAS A LOS QUE SE LLAMA: * C -------------------------------- * C Ninguno. * C********************************************************************** C NOTAS: * C ------ * C * Mediante el metodo de Gauss con pivotaje parcial se calcula la * C primera aproximacion {X'}de la solucion del sistema: * C [A].{X} = {B}. * C Para refinarla se estima el vector residuo {RES}={B}-[A].{X'} * C y se resuelve, aprovechando la triangularizacion ya hecha, el * C sistema [A].{EPS}={RES}, refinandose la solucion mediante: * C {X} = {X'}+{EPS} * C * C * La descripcion del metodo de Gauss puede consultarse en * C C.CONDE & G. WINTER 'Metodos y Algoritmos Basicos del Algebra* C Numerica'. Ed. Reverte (1.990) * C********************************************************************** C PROGRAMADORES Y FECHA DE PROGRAMACION: * C -------------------------------------- * C CARLOS CONDE LAZARO Y EMANUELE SCHIAVI * C Escuela Superior de Ciencias Experimentales y Tecnologia * C Universidad Rey Juan Carlos * C MOSTOLES (MADRID) * C Julio, 1.998 * C********************************************************************** C C Definicion de variables C C SUBROUTINE GAUSS (N, A, B) IMPLICIT NONE INTEGER*4 I, J, K, N, FILA[ALLOCATABLE](:) REAL*8 A(N,N), AUX, B(*), PIV REAL*8 AA[ALLOCATABLE](:,:), RES[ALLOCATABLE](:) ALLOCATE (AA(N,N),RES(N)) ALLOCATE (FILA(N)) C C Salvaguarda de la matriz y vector del sistema C DO I = 1, N RES(I) = B(I) DO J = 1, N AA(I,J) = A(I,J) END DO END DO C C Proceso de Gauss C DO K = 1, (N-1) C C Busqueda de la posicion del pivote parcial C PIV = DABS(A(K,K)) FILA(K) = K DO I = K+1, N AUX = DABS(A(I,K)) IF (PIV.LT.AUX) THEN FILA(K) = I PIV = AUX END IF END DO C C Intercambio de filas C IF (FILA(K).NE.K) THEN J = FILA(K) DO I = K, N PIV = A(K,I) A(K,I) = A(J,I) A(J,I) = PIV END DO PIV = B(K) B(K) = B(J) B(J) = PIV END IF C C Triangularizacion en la columna K C DO I = K+1, N PIV = A(I,K) / A(K,K) DO J = K+1, N A(I,J) = A(I,J) - PIV * A(K,J) END DO B(I) = B(I) - PIV * B(K) END DO END DO C C Proceso de remonte C B(N) = B(N) / A(N,N) DO I = N-1, 1, -1 PIV = 0.D0 DO J = I+1, N PIV = PIV + A(I,J) * B(J) END DO B(I) = (B(I) - PIV) / A(I,I) END DO C C Estimacion de residuos C DO I = 1, N PIV = 0.D0 DO J = 1, N PIV = PIV + AA(I,J)*B(J) END DO RES(I) = RES(I) - PIV END DO DO K = 1, N-1 J = FILA(K) IF (J.NE.K) THEN PIV = RES(J) RES(J) = RES(K) RES(K) = PIV END IF END DO C C Correccion de la solucion. C RES(N) = RES(N) / A(N,N) DO I = N-1, 1, -1 PIV = 0.D0 DO J = I+1, N PIV = PIV + A(I,J)*RES(J) END DO RES(I) = (RES(I) - PIV)/A(I,I) B(I) = B(I) + RES(I) END DO C C Finalizacion C DEALLOCATE (FILA) DEALLOCATE (AA, RES) RETURN END C C C********************************************************************** C MODULO JACOBIANA * C********************************************************************** C OBJETO: * C ------- * C ESTIMACION DE LA MATRIZ JACOBIANA DE UNA FUNCION F(X). SE * C EVALUARA DE FORMA EXACTA (SI IOPCION = 1) O UTILIZANDO UNA * C APROXIMACION MEDIANTE FORMULAS PROGRESIVAS CON CONTROL DEL * C PASO DE DERIVACION. * C********************************************************************** C DICCIONARIO DE VARIABLES: * C ------------------------- * C * VARIABLES DE ENTRADA: * C * C EPSD --> TOLERANCIA EN LA APROXIMACION DE LAS DERIVADAS QUE * C FORMAN LA MATRIZ JACOBIANA. * C IOPCION --> INDICADOR DE LA FORMA DE CALCULAR LA MATRIZ JACO- * C BIANA DE F(Y). PUEDE TOMAR LOS VALORES * C 1 ... LA MATRIZ JACOBIANA SE EVALUA DE FORMA * C EXACTA A PARTIR DE LAS EXPRESIONES ANA- * C LITICAS PROGRAMADAS EN EL MODULO * C REAL*8 FUNCTION DF(I,J,X,Y) * C OTRO VALOR ... LA MATRIZ JACOBIANA SE EVALUA * C APROXIMANDO LAS DERIVADAS MEDIANTE UNA * C FORMULA PROGRESIVA CON CONTROL DE PASO * C N --> NUMERO DE COMPONENTES DE LA FUNCION Y DE VARIABLES * C INDEPENDIENTES. * C SF --> FACTOR DE SEGURIDAD USADO EN EL CONTROL DE LA * C LONGITUD DEL PASO DE DERIVACION. * C VAL --> VECTOR DE N COMPONENTES CONTENIENDO LOS VALORES DE * C LAS DISTINTAS COMPONENTES DE LA FUNCION CON LA QUE * C SE TRABAJA EVALUADAS EN EL PUNTO X. * C X --> PUNTO EN EL QUE SE EVALUA LA MATRIZ JACOBIANA. * C * C * VARIABLES DE SALIDA: * C JAC --> MATRIZ JACOBIANA. * C * C * C********************************************************************** C FICHEROS UTILIZADOS: * C -------------------- * C Ninguno. * C********************************************************************** C SUBPROGRAMAS A LOS QUE SE LLAMA: * C -------------------------------- * C REAL*8 FUNCTION F(I,X). Este modulo recoge las expresiones * C analiticas de las funciones que componen la funcion vec- * C torial F(X), de manera que F(I,X) devuelva el valor de * C la I-esima componente de la funcion F(X). * C REAL*8 FUNCTION DF(I,J,X). Este modulo solo es llamado si el * C valor de IOPCION es 1. En el se recogeran las expresio- * C nes de las derivadas parciales primeras de la funcion * C F(X), de tal forma que F(I,J,X) devuelva el valor en X * C de la derivada respecto a la componente J-esima de la * C variable independiente de la I-esima componente de la * C funcion F(X) C********************************************************************** C NOTAS: * C ------ * C * El metodo de calculo aproximado para la derivada de la compo- * C nente I-esima respecto a la J-esima variable consiste en divi-* C dir [el valor de F en el vector X con su J-esima componente * C incrementada en el valor H menos el valor de F en X] entre * C el valor que tenga H. Esta manera de proceder se realiza con * C un valor H = PASO y con otro valor H = PASO2, siendo PASO2 * C menor que PASO. Si entre las dos estimaciones asi obtenidas * C hay un ERROR relativo menor o igual que la tolerancia EPSD * C se da por buena la estimacion realizada con PASO2. En caso * C contrario se reduce el valor de PASO y se repite el proceso. * C * C * Se permite repetir el proceso de calculo anterior hasta 15 ve- * C ces. En caso de no obtenerse una precision como la deseada en * C estas iteraciones se detiene el programa y se avisa de ello al * C usuario. Segun la longitud final del PASO usado el usuario pue-* C de modificar el programa aumentando el numero de iteraciones * C permitidas. * C********************************************************************** C PROGRAMADORES Y FECHA DE PROGRAMACION: * C -------------------------------------- * C CARLOS CONDE LAZARO Y EMANUELE SCHIAVI * C Escuela Superior de Ciencias Experimentales y Tecnologia * C Universidad Rey Juan Carlos * C MOSTOLES (MADRID) * C * C Julio, 1.998 * C********************************************************************** C C Definicion de variables C SUBROUTINE JACOBIANA(N, JAC, X, VAL, EPSD, SF, IOPCION) IMPLICIT NONE INTEGER*4 I, IOPCION, ITER, J, N REAL*8 AUX, DF, EPSD, ERROR, ESTIMP, ESTIMP2, F, JAC(N,N) REAL*8 VAL(*) REAL*8 PASO, PASO2, REDUC, SF, X(*) C C Estimacion de la matriz Jacobiana de forma exacta. C IF (IOPCION.EQ.1) THEN DO I = 1, N DO J = 1, N JAC(I,J) = DF(I,J,X) END DO END DO ELSE C C Estimacion de la matriz Jacobiana de forma aproximada. C DO J = 1, N C C Para la J-esima variable... C DO I = 1, N C C ... y para la I-esima componente de la funcion, se C inicializa el valor del PASO y del PASO2 a usar .... C PASO = 1.D-3 * X(J) ERROR = 2.D0*EPSD IF (DABS(X(J)).LE.1.D0) THEN PASO = 1.D-3 END IF REDUC=5.D-1 PASO2 = REDUC*PASO C C ... se estima la derivada con el valor de PASO .... C X(J) = X(J) + PASO ESTIMP = (F(I,X) - VAL(I))/PASO X(J) = X(J) - PASO ITER = 0 DO WHILE ((ITER.LT.15).AND.(ERROR.GT.EPSD)) ITER = ITER + 1 C C ... y con el valor PASO2 C X(J) = X(J) + PASO2 ESTIMP2 = (F(I,X) - VAL(I)) / PASO2 X(J) = X(J) - PASO2 C C ... se halla el error relativo entre ellas .... C ERROR = (ESTIMP2 - ESTIMP) * REDUC / (1.D0 - REDUC) C C ... se corrige la derivada ..... C AUX = ESTIMP2 + ERROR ERROR = DABS(ERROR )/(1.D-3+DABS(AUX)) C C ... y si el error es mayor que la tolerancia permitida C se disminuye el valor del PASO y del PASO2 y se C repite el proceso .... C IF (ERROR.GT.EPSD) THEN ESTIMP = ESTIMP2 PASO = PASO2 PASO2 = PASO2*EPSD/(SF*DABS(ERROR)) REDUC = PASO2 / PASO ELSE C C ... mientras que en caso contrario se da por bueno C el valor esimado C JAC(I,J) = AUX END IF END DO C C Si en 15 iteraciones no se obtuvo una buena aproximacion C de la derivada se detiene el program C IF ((ITER.EQ.15).AND.(ERROR.GT.EPSD)) THEN WRITE(*,*) 'NO SE PUDO CALCULAR LA MATRIZ JACOBIANA' STOP END IF END DO END DO END IF C C Finalizacion. C RETURN END C C********************************************************************** C MODULO NEWTON * C********************************************************************** C OBJETO: * C ------- * C RESOLUCION DE UN SISTEMA DE ECUACIONES NO LINEALES MEDIANTE EL * C METODO DE NEWTON UTILIZANDO LAS EXPRESIONES ANALITICAS DE LAS * C DERIVADAS O UNA APROXIMACION DE ELLAS EN LOS PUNTOS EN QUE SE * C NECESITEN Y USANDO LA NORMA-2 EN EL CRITERIO DE DETENCION DEL * C PROCESO ITERATIVO. * C REFERENCIA: C. Conde y G. Winter. (1.990). "Métodos y * C Algoritmos Básicos del Algebra Numerica". Ed. Reverté. * C********************************************************************** C DICCIONARIO DE VARIABLES: * C ------------------------- * C * VARIABLES DE ENTRADA: * C EPS --> PARAMETRO USADO PARA DETENER EL PROCESO ITERATIVO * C CUANDO ESTE CONVERGE. * C EPSD --> PARAMETRO DE TOLERANCIA USADO EN LA APROXIMACION DE * C LAS DERIVADAS PARCIALES QUE FORMAN LA MATRIZ JACO- * C BIANA. SOLO ES UTILIZADO CUANDO IOPCION TOMA UN * C VALOR DIFERENTE A LA UNIDAD. * C EPSF --> PARAMETRO USADO PARA DETENER EL PROCESO ITERATIVO * C CUANDO ESTE CONVERGE. * C IOPCION--> INDICADOR QUE TOMA EL VALOR: * C 1: SI SE EVALUA LA MATRIZ JACOBIANA DE FORMA * C EXACTA * C OTRO VALOR: SI LA MATRIZ JACOBIANA SE EVALUA * C DE FORMA APROXIMADA. * C MAXIT --> NUMERO MAXIMO DE ITERACIONES QUE SE PERMITE REALIZAR* C N --> NUMERO DE ECUACIONES NO LINEALES QUE FORMAN EL * C SISTEMA. * C SF --> FACTOR DE SEGURIDAD UTILIZADO EN LA ESTIMACION DE LA* C MATRIZ JACOBIANA. SOLO ES USADO SI OPCION TOMA UN * C VALOR DIFERENTE A LA UNIDAD. * C X --> VECTOR CON EL QUE SE INICIALIZA EL METODO. * C * C * VARIABLES DE SALIDA: * C -------------------- * C ITER --> NUMERO DE ITERACIONES REALIZADAS. * C X --> VECTOR SOLUCION DEL SISTEMA. * C TOL --> NORMA-2 DEL VECTOR DIFERENCIA ENTRE LOS VECTORES * C HALLADOS EN LAS DOS ULTIMAS ITERACIONES. * C TOL --> NORMA-2 DEL VECTOR RESIDUO * C * C * C * OTRAS VARIABLES UTILIZADAS: * C --------------------------- * C B --> VECTOR AUXILIAR DE N ELEMENTOS. * C JAC --> MATRIZ AUXILIAR DE (N,N) ELEMENTOS QUE CONTENDRA * C LA MATRIZ JACOBIANA. * C********************************************************************** C SUBPROGRAMAS UTILIZADOS: * C ------------------------ * C SUBROUTINE EVALF (N, X, B) Esta subrutina permite evaluar el * C vector de N componentes B = F(X), siendo F la funcion * C vectorial de N componente que define el sistema no lineal * C F(X)=0. * C SUBROUTINE JACOBIANA (N, JAC, X, B, EPSD, SF, IOPCION) * C Esta subrutina permite evaluar la matriz Jacobiana de una * C funcion vectorial F(X) en un punto X. Segun el valor de * C IOPCION el calculo se realiza de forma exacta (IOPCION = 1)* C o aproximando las derivadas parciales que intervienen * c (IOPCION = Cualquier otro valor). * C SUBROUTINE GAUSS (N, JAC, B) Esta subrutina permite resolver un * C sistema de N ecuaciones lineales cuya matriz del sistema * C sea la matriz JAC y el vector de segundos miembros se B. * C La solucion del sistema se almacena en el propio vector B. * C SUBROUTINE NORMA (N, B, TOL) Esta subrutina evalua la norma-2 * C de un vector B de N componentes. El valor de la norma-2 se * C almacena en la variable TOL. * C SUBROUTINE ACTUALIZA (N, X, B) Esta subrutina actualiza el valor* c de las N componentes del vector X, restandole el vector B. * C********************************************************************** C FICHEROS UTILIZADOS: * C -------------------- * C NINGUNO. * C********************************************************************** C PROGRAMADORES Y FECHA DE PROGRAMACION: * C -------------------------------------- * C CARLOS CONDE LAZARO Y EMANUELE SCHIAVI * C ESCUELA SUPERIOR DE CIENCIAS EXPERIMENTALES Y TECNOLOGIA. * C UNIVERSIDAD REY JUAN CARLOS. * C JULIO DE 1.998 * C********************************************************************** C SUBROUTINE NEWTON(N,MAXIT,IOPCION,EPS,EPSF,X,ITER,TOL,TOLF,EPSD, &SF) C C Definicion de variables C IMPLICIT NONE INTEGER*4 I, IOPCION, ITER, MAXIT, N REAL*8 A, B[ALLOCATABLE](:), EPS, EPSD, EPSF REAL*8 JAC[ALLOCATABLE](:,:) REAL*8 SF, TOL, TOLF, X(*) C C (La instruccion siguiente es especifica para el ejemplo resuelto y C debe eliminarse para la realizacion de un programa general) C \end{verbatim} \ \ \ \ \ \ \ \ \ \ \textit{real*8 Y(6), D, sum} \begin{verbatim} C ALLOCATE (JAC(N,N), B(N)) C C Inicializacion del contador de iteraciones y del valor de TOL C ITER = 0 TOL = 2.D0*EPS TOLF = 2.D0*EPSF A = 5.D-1 C C Mientras no se supere el limite maximo de iteraciones permitidas C y no se obtengan soluciones suficientemente precisas .... C DO WHILE ((ITER.LT.MAXIT).AND.((TOL.GT.EPS).AND.(TOLF.GT.EPSF)) C C ..... se evalua el vector B = F(X) ...... C CALL EVALF (N, X, B) CALL NORMA (N, B, TOLF) C C ..... se calcula la matriz Jacobiana en X .... C CALL JACOBIANA (N, JAC, X, B, EPSD, SF, IOPCION) C C ..... se calcula el incremento de cada componente del C vector solucion X resolviendo el sistema lineal C de matriz del sistema JAC y de vector de segundo C termino B. El vector incremento se almacena en el C propio vector B ..... C CALL GAUSS (N, JAC, B) C C ..... se evalua la norma-2 del vector de incrementos B ..... C CALL NORMA (N, B, TOL) C C ..... se actualiza el vector solucion X restandole el vector C de incrementos B C ..... C CALL ACTUALIZA (N, X, B) C C ..... y se actualiza el valor del contador de iteraciones ITER .. C ITER = ITER + 1 write(*,*) 'Iteracion n.: ',ITER , ' Tolerancia: ', TOL write(2,*) 'Iteracion n.: ',ITER , ' Tolerancia: ', TOL C C (Las 7 instrucciones siguientes son especificas para el ejemplo C resuelto y deben eliminarse para la realizacion de un programa C general) C \end{verbatim} \ \ \ \ \ \ \ \ \ \ \textit{\ D = 4.D0 - 2.D0*X(1) + X(3) - 4.D0*X(4) } \ \ \ \ \ \ \ \ \ \ \textit{\ Y(1) = (3.D0 - 3.D0*X(1) + X(2) - 5.D0*X(4))/D } \ \ \ \ \ \ \ \ \ \ \textit{\ Y(2) = (1.D0 - X(1) - X(2) + 2.D0*X(3) - 2.D0*X(4))/D } \ \ \ \ \ \ \ \ \ \ \textit{\ Y(3) = X(1)/D } \ \ \ \ \ \ \ \ \ \ \textit{\ Y(4) = (X(1) - X(2) + 2.D0*X(4))/D } \ \ \ \ \ \ \ \ \ \ \textit{\ Y(5) = (X(2) - X(3))/D } \ \ \ \ \ \ \ \ \ \ \textit{\ Y(6) = X(4)/D } \begin{verbatim} C DO I = 1, N WRITE(*,*) 'X(',I,') = ',X(I) WRITE(2,*) 'X(',I,') = ',X(I) END DO C C (Las 6 instrucciones siguientes son especificas para el ejemplo C resuelto y deben eliminarse para la realizacion de un programa C general) C \end{verbatim} \ \ \ \ \ \ \ \ \ \ \textit{\ WRITE(2,*) 'Fracciones molares: ' } \ \ \ \ \ \ \ \ \ \ \textit{\ sum = 0.d0 } \ \ \ \ \ \ \ \ \ \ \textit{\ do I = 1, 6 } \ \ \ \ \ \ \ \ \ \ \textit{\ write(2,*) 'Y(',I,') = ',Y(I) } \ \ \ \ \ \ \ \ \ \ \textit{\ sum = sum + Y(I) } \ \ \ \ \ \ \ \ \ \ \textit{\ end do } \begin{verbatim} C write(2,*) C C (La instruccion siguiente es especifica para el ejemplo resuelto y C debe eliminarse para la realizacion de un programa general) C \end{verbatim} \ \ \ \ \ \ \ \ \ \ \textit{\ write(2,*) 'D = ', D,' SUMA = ',sum } \begin{verbatim} C write(2,*) write(2,*) C C ..... para, si procede, poder realizar la siguiente iteracion. C END DO C C Finalizacion C RETURN END C C********************************************************************** C MODULO NORMA * C********************************************************************** C OBJETO: * C ------- * C EVALUACION DE LA NORMA-2 DE UN VECTOR * C********************************************************************** C DICCIONARIO DE VARIABLES: * C ------------------------- * C * VARIABLES DE ENTRADA: * C N --> NUMERO DE COMPONENTES DEL VECTOR. * C V --> VECTOR DEL QUE SE EVALUA LA NORMA. * C * C * VARIABLES DE SALIDA: * C NORMA2 --> VALOR DE LA NORMA-2 DE V. * C * C * OTRAS VARIABLES UTILIZADAS: * C I --> VARIABLE DE CONTROL EN BUCLES * C * C********************************************************************** C SUBPROGRAMAS UTILIZADOS: * C ======================== * C NINGUNO * C********************************************************************** C FICHEROS UTILIZADOS: * C -------------------- * C NINGUNO. * C********************************************************************** C PROGRAMADORES Y FECHA DE PROGRAMACION: * C -------------------------------------- * C CARLOS CONDE LAZARO Y EMANUELE SCHIAVI * C ESCUELA SUPERIOR DE CIENCIAS EXPERIMENTALES Y TECNOLOGIA. * C UNIVERSIDAD REY JUAN CARLOS. * C JULIO DE 1.998 * C********************************************************************** C SUBROUTINE NORMA (N, V, NORMA2) C C Definicion de variables C IMPLICIT NONE INTEGER*4 I, N REAL*8 NORMA2, V(*) C C Puesta a cero del valor de NORMA2 C NORMA2 = 0.D0 C C Evaluacion de la suma de los cuadrados de las componentes del vector C DO I = 1, N NORMA2 = NORMA2 + V(I)*V(I) END DO C C Estimacion de la norma C NORMA2 = DSQRT(NORMA2) C C Finalizacion C RETURN END C C********************************************************************** C MODULO FUNCTION F(I,X) * C********************************************************************** C OBJETO: * C ------- * C CALCULO DEL VALOR DE LA I-ESIMA COMPONENTE DE UNA FUNCION * C VECTORIAL EN EL VECTOR X. * C********************************************************************** C DICCIONARIO DE VARIABLES: * C ------------------------- * C * VARIABLES DE ENTRADA: * C I --> INDICADOR DE LA COMPONENTE QUE SE DEFINE. * C X --> VECTOR DE VARIABLES INDEPENDIENTES. * C * C * VARIABLES DE SALIDA: * C F --> VALOR CALCULADO. * C * C********************************************************************** C SUBPROGRAMAS UTILIZADOS: * C ======================== * C NINGUNO * C********************************************************************** C FICHEROS UTILIZADOS: * C -------------------- * C NINGUNO. * C********************************************************************** C PROGRAMADORES Y FECHA DE PROGRAMACION: * C -------------------------------------- * C CARLOS CONDE LAZARO Y EMANUELE SCHIAVI * C ESCUELA SUPERIOR DE CIENCIAS EXPERIMENTALES Y TECNOLOGIA. * C UNIVERSIDAD REY JUAN CARLOS. * C JULIO DE 1.998 * C********************************************************************** C C NOTA: C ==== C En este modulo deben programarse las expresiones de las funciones C que definen el sisyema no lineal de ecuaciones. Para cada sistema C a resolver, el usuario debe programar aqui sus expresiones tal C cual se hace a continuacion con las resultantes del ejemplo tomado C de O. T. Hanna & O. C. Shandall ''Computational Methods in Chemical C Engineering'' Ed. Prentice Hall (1.995) pags.170-172. C C Definicion de variables utilizadas C REAL*8 FUNCTION F(I, X) IMPLICIT NONE INTEGER*4 I REAL*8 D, X(*), Y(6) C C Programacion de las expresiones de las distintas componentes C de la funcion vectorial C D = 4.D0 - 2.D0*X(1) + X(3) - 4.D0*X(4) IF (I.EQ.1) THEN Y(1) = (3.D0 - 3.D0*X(1) + X(2) - 5.D0*X(4)) Y(2) = (1.D0 - X(1) - X(2) + 2.D0*X(3) - 2.D0*X(4)) Y(3) = X(1) Y(4) = (X(1) - X(2) + 2.D0*X(4)) F = Y(3)*Y(4)*D*D - 6918.D-2 *(Y(1)**3)*Y(2) ELSE IF (I.EQ.2) THEN Y(1) = (3.D0 - 3.D0*X(1) + X(2) - 5.D0*X(4)) Y(2) = (1.D0 - X(1) - X(2) + 2.D0*X(3) - 2.D0*X(4)) Y(4) = (X(1) - X(2) + 2.D0*X(4)) Y(5) = (X(2) - X(3)) F = Y(5)*Y(1) - 468.D-2*Y(2)*Y(4) ELSE IF (I.EQ.3) THEN Y(2) = (1.D0 - X(1) - X(2) + 2.D0*X(3) - 2.D0*X(4)) Y(5) = (X(2) - X(3)) F = Y(2)*Y(2) - 0.0056d0 * Y(5)*D ELSE IF (I.EQ.4) THEN Y(1) = (3.D0 - 3.D0*X(1) + X(2) - 5.D0*X(4)) Y(2) = (1.D0 - X(1) - X(2) + 2.D0*X(3) - 2.D0*X(4)) Y(4) = (X(1) - X(2) + 2.D0*X(4)) Y(6) = X(4) F = Y(6)*Y(4)*Y(4)*(D**4) - 0.141d0*(Y(1)**5)*Y(2)*Y(2) ELSE WRITE(*,*) 'ERROR EN LA DEFINICION DE LA FUNCION' END IF C C Finalizacion C RETURN END C C********************************************************************** C MODULO FUNCTION DF(I,J,X) * C********************************************************************** C OBJETO: * C ------- * C CALCULO DEL VALOR DE LA DERIVADA DE LA COMPONENTE I-ESIMA DE * C UNA FUNCION VECTORIAL RESPECTO A LA J-ESIMA VARIABLE EN EL * C VECTOR X. * C********************************************************************** C DICCIONARIO DE VARIABLES: * C ------------------------- * C * VARIABLES DE ENTRADA: * C I --> INDICADOR DE LA COMPONENTE QUE SE DERIVA. * C J --> INDICADOR DE LA VARIABLE RESPECTO A LA QUE SE * C DERIVA * C X --> VECTOR DE VARIABLES INDEPENDIENTES. * C * C * VARIABLES DE SALIDA: * C DF --> VALOR CALCULADO. * C * C********************************************************************** C SUBPROGRAMAS UTILIZADOS: * C ======================== * C NINGUNO * C********************************************************************** C FICHEROS UTILIZADOS: * C -------------------- * C NINGUNO. * C********************************************************************** C PROGRAMADORES Y FECHA DE PROGRAMACION: * C -------------------------------------- * C CARLOS CONDE LAZARO Y EMANUELE SCHIAVI * C ESCUELA SUPERIOR DE CIENCIAS EXPERIMENTALES Y TECNOLOGIA. * C UNIVERSIDAD REY JUAN CARLOS. * C JULIO DE 1.998 * C********************************************************************** C REAL*8 FUNCTION DF(I,J,X) C C Definicion de variables C IMPLICIT NONE INTEGER*4 I,J REAL*8 X(*) C C Programacion de las expresiones de las distintas derivadas C de las componentes de la funcion vectorial C C NOTA: C ===== C En el caso del ejemplo al que se va a aplicar, la matriz C jacobiana se aproximara por diferencias finitas, por lo que C no se utilizara este modulo (aunque es necesaria su exis- C tencia a efectos de compilacion no es llamado). Por ello las C expresiones de las derivadas que aparecen no se ajustan a las C las expresiones de las derivadas de las funciones del sistema C IF (I.EQ.1) THEN IF (J.EQ.1) THEN DF = 1.75D0* 2.35d0*dexp(-3.d0)*((X(1)+X(2))**0.75D0) ELSE IF (J.EQ.2) THEN DF = 1.75D0* 2.35d0*dexp(-3.d0)*((X(1)+X(2))**0.75D0) ELSE DF = 1.D0 END IF ELSE IF (I.EQ.2) THEN IF (J.EQ.1) THEN DF = 1.75D0*4.67d0*dexp(-3.d0)*(X(1)**0.75D0) ELSE IF (J.EQ.2) THEN DF = 0.D0 ELSE DF = -1.D0 END IF ELSE IF (J.EQ.1) THEN DF = 0.D0 ELSE IF (J.EQ.2) THEN DF = 3.72D0*DEXP(-2)*1.75D0*(X(2)**0.75) ELSE DF = -1.D0 END IF END IF C C Finalizacion C RETURN END C \end{verbatim} \newpage El programa anterior se ha ejecutado a partir de los valores iniciales su\-mi\-nis\-tra\-dos por Hanna \& Sandall ($x_{1}=0.1,$ $x_{2}=0.2,$ $x_{3}=0.3$ y $% x_{4}=0.4)$ con los siguientes valores para la tolerancia en los tests de control: EPS = 10$^{-6}$, EPSF = 10$^{-6},$ EPSD = 10$^{-3}.$ Junto a ellos se dieron adem\'{a}s los valores siguientes MAXIT = 1000 (se permit\'{i}an hasta 1000 iteraciones en el proceso), IOPCION = 2 (es decir que se aproxime la matriz jacobiana mediante diferencias finitas) y SF\ = 2 (par\'{a}metro usado en el test de convergencia de los valores aproximados de las derivadas parciales). Con estos datos el programa, en \textbf{9 iteraciones}, nos conduce a las soluciones: $$ x_{1}^{*}=0.681604,\quad x_{2}^{*}=0.0158962,\quad x_{3}^{*}=-0.128703,\quad x_{4}^{*}=0.140960\cdot 10^{-4} $$ que se corresponden con las fracciones molares: \[ y_{1}=3.871616\cdot 10^{-1} \] \[ y_{2}=1.796845\cdot 10^{-2} \] \[ y_{3}=2.717684\cdot 10^{-1} \] \[ y_{4}=2.654415\cdot 10^{-1} \] \[ y_{5}=5.765447\cdot 10^{-2} \] \[ y_{6}=5.620353\cdot 10^{-6} \] Esta es la soluci\'{o}n que proporcionan Hanna y Sandall en [9]. Para los valores de las coordenadas de reacci\'{o}n calculados los residuos en las funciones que definen el sistema fueron: \[ f_{1}(x_{1}^{*},x_{2}^{*},x_{3}^{*},x_{4}^{*})=-0.215626\cdot 10^{-14} \] \[ f_{2}(x_{1}^{*},x_{2}^{*},x_{3}^{*},x_{4}^{*})=-0.979848\cdot 10^{-16} \] \[ f_{3}(x_{1}^{*},x_{2}^{*},x_{3}^{*},x_{4}^{*})=0.245258\cdot 10^{-17} \] \[ f_{4}(x_{1}^{*},x_{2}^{*},x_{3}^{*},x_{4}^{*})=-0.276799\cdot 10^{-15} \] por lo que el test de parada basado en los valores que toma la funci\'{o}n es superado am\-plia\-men\-te. Asimismo el valor de la norma-2 de la diferencia entre las dos \'{u}ltimas soluciones halladas fue de $4.778881\cdot 10^{-12}$ por lo que tambi\'{e}n se satisfizo ampliamente el otro test de parada. \beobse \begin{enumerate} \item El sistema dado admite otras soluciones que ma\-te\-m\'{a}\-ti\-ca\-men\-te, son tan v\'{a}lidas como la anterior. Ser\'{a}n otros criterios (de tipo qu\'{i}mico en este caso) los que puedan ayudar a elegir entre la mejor de ellas. As\'{i} si el programa se inicializa con los mismos par\'{a}metros pero con los valores iniciales $x_{1}=x_{2}=x_{3}=x_{4}=1$ se obtienen (al cabo de 158 iteraciones) las soluciones: $$ x_{1}^{*}=0.103513,\quad x_{2}^{*}=2.000043,\quad x_{3}^{*}=2.000043,\quad x_{4}^{*}=1.448265 $$ que se corresponden con las fracciones molares (sin sentido qu\'{i}mico): \[ y_{1}=59220.669601 \] \[ y_{2}=2.447693\cdot 10^{-11} \] \[ y_{3}=-2402.257205 \] \[ y_{4}=-23207.216399 \] \[ y_{5}=-5.153037\cdot 10^{-11} \] \[ y_{6}=-33610.195997 \] pero que tambi\'{e}n satisfacen el sistema de ecuaciones dado pues los residuos resultan ser: \[ f_{1}(x_{1}^{*},x_{2}^{*},x_{3}^{*},x_{4}^{*})=0.190986\cdot 10^{-9} \] \[ f_{2}(x_{1}^{*},x_{2}^{*},x_{3}^{*},x_{4}^{*})=-0.730130\cdot 10^{-15} \] \[ f_{3}(x_{1}^{*},x_{2}^{*},x_{3}^{*},x_{4}^{*})=0.535803\cdot 10^{-21} \] \[ f_{4}(x_{1}^{*},x_{2}^{*},x_{3}^{*},x_{4}^{*})=0.499293\cdot 10^{-17} \] \item El m\'{e}todo de Broyden, con los mismos datos que el m\'{e}todo de Newton, y aproximando en la primera iteraci\'{o}n las derivadas que intervienen en la matriz jacobiana mediante diferencias finitas, tambi\'{e}n nos conduce a la misma soluci\'{o}n que el m\'{e}todo de Newton-Raphson pero en este caso son necesarias ... $263$ iteraciones. Como adem\'{a}s el n\'{u}mero de ecuaciones no es muy elevado (s\'{o}lo $4$) no es aconsejable en este caso este m\'{e}todo frente al de Newton. \end{enumerate} \enobse \newpage \section{Bibliograf\'{\i}a} \begin{itemize} \item Axelsson, O., (1.996). Iterative solution methods. Ed. Cambridge University Press. \item Broyden, C.G., (1.965). \textit{A class of methods for solving nonlinear simultaneous equations}. Mathematics of Computation, 19, p\'{a}gs. 577-593. \item Burden, R.L. y Faires, J.D., (1.998). An\'{a}lisis num\'{e}rico. (6${{}^a% }$ ed.). Ed. International Thomson editores. \item Ciarlet, P.G. y Lions, J.L. (eds)., (1.990). Handbook of Numerical Analysis. Volume 1: Finite difference methods (part 1); Solution of equations in $\mathsf{IR}^{n}$ (part 1). Ed. North Holland Publishing Company. \item Conde, C. y Winter, G., (1.990) M\'{e}todos y algoritmos b\'{a}sicos del \'{a}lgebra num\'{e}rica. Ed. Revert\'{e}. \item Durand, E., (1.972). Solutions num\'{e}riques des \'{e}quations alg\'{e}briques. Tomes I y II. Ed. Masson et Cie. \item de la Fuente O'Connor, J.L., (1.998). T\'{e}cnicas de c\'{a}lculo para sistemas de ecuaciones, programaci\'{o}n lineal y programaci\'{o}n entera. (2% ${{}^a}$ ed.). Ed. Revert\'{e}. \item Fletcher, R., (1.987). Practical methods of Optimization. Ed. John Wiley and Sons. \item Hanna, O.T. y Sandall, O.C., (1.995). Computational methods in chemical engineering. Ed. Prentice Hall International editions. \item Kincaid, D. y Cheney, W., (1.994). An\'{a}lisis num\'{e}rico.\ Las matem\'{a}ticas del c\'{a}lculo cient\'{i}fico. Ed. Addison-Wesley Iberoamericana. \item Ortega, J.M. y Rheinboldt, W.C., (1.970). Iterative solution of nonlinear equations in several variables. Ed. Academic Press, Inc. \item Press, W.H., Flannery, B.P., Teukolsky, S.A. y Vetterling, W.T., (1.986). Numerical recipes in FORTRAN. The art of scientific computing. Ed. Cambridge University Press. \item Schiavi, E., Mu\~noz Montalvo, A.I., Conde, C. (2012). M\'etodos Matemáticos para los Grados en Ingenier\'{\i}a. Primera parte: teor\'{\i}a. Ed. Dykinson, Textos Docentes 31, Universidad Rey Juan Carlos, ISBN: 978-84-15454-58-8. \item Shampine, L.F., Allen, R.C. y Pruess, S., (1.997). Fundamentals of numerical computing. Ed. John Wiley and Sons. \item Stoer, J. y Bulirsch, R., (1.980). Introduction to numerical analysis. Ed. Springer Verlag. \end{itemize} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\include{tema2_1} %TCIDATA{LaTeXparent=0,0,guion5.tex} %TCIDATA{ChildDefaults=chapter:1,page:1} \chapter{ M\'{e}todos Num\'{e}ricos para la resoluci\'{o}n de Problemas de Valor Inicial.} \section{Planteamiento y generalidades.} Sea $I$ un intervalo abierto de la recta real, no reducido a un \'{u}nico punto, y sea $t_{0}$ un punto fijado de \'{e}l. Supongamos adem\'{a}s que $f$ es una funci\'{o}n definida y continua en $I\times \R$ y con valores en $\R$, y sea $y_{0}$ un valor dado de $\R$. En estas condiciones nos planteamos el siguiente problema: \es \hspace{0.3cm}\textit{Hallar una funci\'{o}n continua y diferenciable }$y(t)$\textit{\ definida en }$I$\textit{\ y con valores en }$\R$\textit{\ verificando:} \begin{equation} (P.C.)\quad\left\{ \begin{array}{lcl} y^{\prime }(t) & = & f(t,y(t)),\qquad \forall t\in I, \\ \noalign{\smallskip}y(t_{0}) & = & y_{0}\in \R . \end{array} \right. \label{cauchy} \end{equation} Este tipo de problemas se conoce con el nombre de \textbf{problema de Cauchy} para la ecuaci\'{o}n diferencial (\ref{cauchy}). La condici\'{o}n asociada se denomina \textbf{condici\'{o}n de Cauchy}. Toda funci\'{o}n $y(t)$ verificando la EDO del problema de Cauchy se denomina \textbf{integral de la EDO} o soluci\'{o}n particular de la EDO. En general las soluciones de la EDO estar\'{a}n dadas por la expresi\'{o}n formal: \[ y(t)=C+\displaystyle\int f(t,y(t)) dt \] donde $C$ es una constante arbitrariamente elegida. A esta familia de soluciones se la denomina \textbf{soluci\'{o}n general} \textbf{de la EDO}. En algunos casos puede haber adem\'{a}s otras soluciones que no pertenezcan a la familia de la soluci\'{o}n general. Dichas soluciones se denominar\'{a}n \textbf{soluciones singulares de la EDO}. A aquella soluci\'{o}n particular que, adem\'{a}s de satisfacer la EDO del problema de Cauchy, verifique la condici\'{o}n de Cauchy se la denomina \textbf{soluci\'{o}n del problema de Cauchy.} \beobse 1${{}^{a}}$) Por no ser objeto de este tema el estudio te\'{o}rico de los problemas de Cauchy no se han considerado diferentes tipos de soluciones vinculadas al estudio de las ecuaciones diferenciales: soluci\'{o}n local, maximal, global,... 2${{}^{a}}$) Por el mismo motivo no entraremos a estudiar los diferentes teoremas que aseguran, bajo ciertas hip\'{o}tesis, la existencia, unicidad o regularidad de las soluciones de los problemas de Cauchy. No obstante recordamos a continuaci\'on uno de los teoremas de existencia y unicidad m\'{a}s cl\'{a}sicos, el Teorema de Cauchy-Lipschitz. \enobse \beteor[de Cauchy-Lipschitz] Suponiendo que la funci\'{o}n $f(t,y)$ es una funci\'{o}n continua sobre $I\times \R$ y que es lipschitciana respecto a la segunda de sus va\-ria\-bles, es decir: \[ \exists k>0 \quad /\;\;\;|\;f(t,y)-f(t,z)\;|\leq k ||y-z||\;\;\;\forall t\in I,\;\;\forall y,z\in \R \] entonces el problema de Cauchy (P.C.) definido en (\ref{cauchy}) admite una \'{u}nica soluci\'{o}n. \enteor \beobse En la bibliograf\'{\i}a sobre ecuaciones diferenciales ordinarias (Crouzeix y Mignot\footnote{Crouzeix, M., Mignot A.L. (1984) ``Analyse num\'{e}rique des \'{e}quations diff\'{e}rentielles'', Ed. Masson.}, Guzm\'{a}n\footnote{Guzm\'{a}n, M. de (1987). ``Ecuaciones diferenciales ordinarias. Teor\'{\i}a de estabilidad y control'' (3${{}^{a}}$ reimpresi\'{o}n). Ed. Alhambra Universidad.}, Marcell\'{a}n et al.\footnote{Marcell\'{a}n, F., Casas\'{u}s, L. y Zarzo, A. (1991). ``Ecuaciones diferenciales. Problemas lineales y aplicaciones''. Ed. McGraw Hill.}, Mart\'{\i}nez y Sanz\footnote{Mart\'{\i}nez, C. y Sanz, M.A. (1991). ``Introducci\'{o}n a las ecuaciones diferenciales ordinarias''. Ed. Revert\'{e}.},....) puede encontrarse el estudio general de este tipo de problemas con detalle. \enobse \beobse La condici\'{o}n de que $f(t,y(t))$ sea lipschitciana toma su nombre del matem\'{a}tico alem\'{a}n Rudolph Lipschitz que fue el primero en utilizar dicha condici\'{o}n en una publicaci\'{o}n del a\~{n}o 1876. Es una condici\'{o}n relativamente ``suave'' sobre la funci\'{o}n. A fin de cuentas, si la derivada parcial de $f(x,y)$ respecto a su segunda variable fuese una funci\'{o}n continua, la condici\'{o}n de Lipschitz se traducir\'{\i}a en que dicha derivada permaneciera acotada. \enobse En numerosos problemas f\'{\i}sicos la variable $t$ representa el tiempo. Adem\'{a}s el intervalo $I$ se suele considerar de la forma $[t_{0},t_{0}+T]$ y por ello al instante $t_{0}$ se le llama entonces \textbf{instante inicial} y a la condici\'{o}n impuesta en este instante se la denomina \textbf{% condici\'{o}n inicial}. En esta situaci\'{o}n a los problemas de Cauchy correspondientes se les denomina habitualmente \textbf{problemas de valor inicial} (P.V.I.), extendi\'{e}ndose esta terminolog\'{\i}a tambi\'{e}n a los problemas en los que $t$ no se identifique con la variable f\'{\i}sica ``tiempo''. \es Los problemas de Cauchy que no sean problemas de valor inicial por no ser $% t_{0}$ el extremo izquierdo del intervalo $I$ pueden reducirse a problemas de valor inicial mediante sencillos cambios de variable. En efecto si $% I=[a,b]$ y $t_{0}$ es un punto intermedio de $I$ el problema de Cauchy correspondiente puede descomponerse en dos problemas de la forma: \[ (P.C.1)\quad \left\{ \begin{array}{lcl} y^{\prime }(t) & = & f(t,y(t)),\quad \forall t\in [a,t_{0}], \\ \noalign{\smallskip}y(t_{0}) & = & y_{0}\in \R , \end{array} \right. \] \[ (P.C.2)\quad \left\{ \begin{array}{lcl} y^{\prime }(t) & = & f(t,y(t)),\quad \forall t\in [t_{0},b], \\ \noalign{\smallskip}y(t_{0}) & = & y_{0}\in \R . \end{array} \right. \] El problema $(P.C.2)$ es un problema de valor inicial. Y el problema $% (P.C.1) $ puede transformarse en un problema de valor inicial si se realiza el cambio de variable independiente: $t^{\prime }=-t.$ Por este motivo los m\'{e}todos num\'{e}ricos que se estudiar\'{a}n en este tema se plantear\'{a}n sobre problemas de valor inicial. Para ellos, adem\'{a}s, teniendo en cuenta la expresi\'{o}n de la soluci\'{o}n general de la EDO, se tendr\'{a} que la expresi\'{o}n formal de la soluci\'{o}n del problema de Cauchy est\'{a} dada por: \[ y(t)=y_{0}+\displaystyle\int\limits_{t_{0}}^{t}f(x,y(x))dx . \] Los P.V.I. pueden formularse de una forma m\'{a}s general para \textbf{% sistemas} de ecuaciones diferenciales de primer orden. M\'{a}s concretamente, siendo $I$ un intervalo de $\R$ de la forma $% [t_{0},t_{0}+T]$ y siendo $\mathbf{f}$ una funci\'{o}n continua definida en $% I\times \R^{m}$ y con valores en $\R^{m}$ puede considerarse el problema siguiente: \textit{Hallar una funci\'{o}n continua y diferenciable }$\mathbf{y}(t)$% \textit{\ definida en }$I$\textit{\ y con valores en }$\R^{m}$% \textit{\ verificando:} \[ (P.V.I.)\quad \left\{ \begin{array}{lcl} \mathbf{y}^{\prime }(t) & = & \mathbf{f}(t,\mathbf{y}(t)),\quad \forall t\in I, \\ \noalign{\smallskip}\mathbf{y}(t_{0}) & = & \mathbf{y}^{0}\in \R^{m}. \end{array} \right. \] La soluci\'{o}n de este tipo de problemas, formalmente, estar\'{a} dada por el vector soluci\'on: \[ \mathbf{y}(t)=\mathbf{y}^{0}+\displaystyle\int\limits_{t_{0}}^{t}\mathbf{f}(x,\mathbf{y}% (x))dx \] Por simplicidad nosotros desarrollaremos los m\'{e}todos num\'{e}ricos que configuren este tema en el caso de problemas de valor inicial en los que interviene una \'{u}nica EDO. La extensi\'{o}n de los m\'{e}todos num\'{e}ricos a problemas en los que intervenga un sistema de ecuaciones diferenciales ordinarias es autom\'{a}tica y, en cuanto a su an\'{a}lisis, ser\'{a}n v\'{a}lidos los teoremas y propiedades que se presenten con la precauci\'{o}n de emplear la m\'{e}trica (normas) correspondiente en $% \R^{m}.$ Cabe se\~{n}alar adem\'{a}s que numerosos problemas de valor inicial se formulan mediante ecuaciones diferenciales ordinarias de orden superior a 1 de la forma: \[ \dis \left\{ \begin{array}{lll} y^{(p}(t) & = & f(t,y(t),y^{\prime }(t),y^{\prime \prime }(t),...,y^{(p-1}(t)),\qquad t\in [t_{0},t_{0}+T] \\ [0.2cm] y(t_{0}) & = & y_{0} \\ [0.2cm] y^{\prime }(t_{0}) & = & y_{0}^{(1)} \\ [0.2cm] y^{\prime \prime }(t_{0}) & = & y_{0}^{(2)} \\ [0.2cm] .... & ... & .... \\ [0.2cm] y^{(p-1}(t_{0}) & = & y_{0}^{(p-1)} \end{array} \right. \] Tales tipos de P.V.I de orden superior a 1 pueden ser reducidos a sistemas de $p$ ecuaciones diferenciales de primer orden denominando: \[ z_{1}(t)=y(t),\;\;z_{2}(t)=y^{\prime }(t),\;\;z_{3}(t)=y^{\prime \prime }(t),\;....,\;\;z_{p}(t)=y^{(p-1}(t) \] con lo que el problema anterior se reescribe como: \[ (P.V.I.)\quad \left\{ \begin{array}{lcl} \mathbf{z}^{\prime }(t) & = & \mathbf{f}(t,\mathbf{z}(t)),\quad \forall t\in I, \\ \noalign{\smallskip}\mathbf{z}(t_{0}) & = & \mathbf{z}^{0}\in \R^{m} \end{array} \right. \] siendo, \[ \mathbf{z}(t)=\left( z_{1}(t),\;z_{2}(t),\;....,\;z_{p}(t)\right) ^{T} \] \[ \mathbf{z}^{(0)}=\left( z_{1}(t_{0}),\;z_{2}(t_{0}),\;....,\;z_{p}(t_{0})\right)^{T}=\left( y(t_{0}),\;y^{\prime }(t_{0}),\;....,\;y^{(p-1}(t_{0})\right)^{T} \] y \[ \mathbf{f}(t,\mathbf{z}(t))=\left( \begin{array}{c} z_{2}(t) \\[0.2cm] z_{3}(t) \\[0.2cm] .... \\[0.2cm] z_{p}(t) \\[0.2cm] f(t,z_{1}(t),z_{2}(t),....,z_{p}(t)) \end{array} \right) \] Por este motivo los m\'{e}todos num\'{e}ricos se plantean habitualmente sobre problemas de valor inicial regidos por ecuaciones diferenciales ordinarias de primer orden. \bejem En el estudio de algunas capas l\'{\i}mite de flujos laminares aparece la denominada ecuaci\'{o}n de Blasius que es una EDO de tercer orden de la forma: \[ y^{\prime \prime \prime }(x)+y(x) y^{\prime \prime }(x)=0,\qquad x\geq 0. \] N\'{o}tese que aqu\'{\i} hemos modificado la notaci\'{o}n de la variable independiente llam\'{a}ndola $x$ pues en esta ocasi\'{o}n la variable independiente no es el tiempo sino que es una va\-ria\-ble adimensional relacionada con la coordenada espacial. La ecuaci\'{o}n de Blasius se acompa\~{n}a de las tres condiciones iniciales $y(0)=y^{\prime }(0)=0,$ $% y^{\prime \prime }(0)=\alpha $ donde $\alpha $ es un valor conocido $(\alpha =0.47).$ Con ello se puede plantear el problema de valor inicial de Blasius de la forma siguiente: \es \hspace{0.3cm} Hallar una funci\'{o}n $y(x)$ verificando: \[ \left\{ \begin{array}{c} y^{\prime \prime \prime }(x)+y(x) y^{\prime \prime }(x)=0,\qquad x\geq 0 \\ [0.3cm] y(0)=0,\;\;y^{\prime }(0)=0,\;\;y^{\prime \prime }(0)=\alpha \end{array} \right. \] \enejem Este problema es equivalente al P.V.I. de primer orden: \[ \left\{ \begin{array}{c} z_{1}^{\prime }(x)=z_{2}(x),\qquad x\geq 0 \\ [0.3cm] z_{2}^{\prime }(x)=z_{3}(x),\qquad x\geq 0 \\ [0.3cm] z_{3}^{\prime }(x)=-z_{1}(x).z_{3}(x),\qquad x\geq 0 \\ [0.3cm] z_{1}(0)=0,\quad z_{2}(0)=0,\quad z_{3}(0)=\alpha \end{array} \right. \] donde se ha denotado por $z_{1}(x)=y(x),$ $z_{2}(x)=y^{\prime }(x),$ $% z_{3}(x)=y^{\prime \prime }(x).$ Abreviadamente el problema anterior puede escribirse entonces como: \[ \left\{ \begin{array}{l} \mathbf{z}(x)=\mathbf{f}(x,\mathbf{z}(x)),\qquad x\geq 0\\ [0.3cm] \mathbf{z}(0)=(0,0,\alpha )^{T} \end{array} \right. \] donde \[ \mathbf{z}(x)=(z_{1}(x),z_{2}(x),z_{3}(x))^{T} \] y \[ \mathbf{f}(x,\mathbf{z}(x))=( z_{2}(x),z_{3}(x),-z_{1}(x) z_{3}(x))^{T} \] \beobse Existe otra gran familia de problemas regidos por ecuaciones diferenciales ordinarias que es la formada por los problemas de contorno unidimensionales. Este tipo de problemas, en el caso de estar regidos por una EDO de segundo orden puede formularse de la forma siguiente: \hspace{1cm}\textit{Hallar una funci\'{o}n }$y(t)$\textit{\ verificando:} \begin{equation} \label{contorno} \left\{ \begin{array}{l} y^{\prime \prime }(t)=f(t,y(t),y^{\prime }(t)),\qquad t\in [a,b], \\ [0.2cm] c_{1,1}y(a)+c_{1,2}y^{\prime }(a)=\alpha, \\ [0.2cm] c_{2,1}y(b)+c_{2,2}y^{\prime }(b)=\beta \end{array} \right. \end{equation} donde $a$, $b$, $c_{1,1},c_{1,2},c_{2,1},c_{2,2}$ y $\alpha ,\beta $ son constantes conocidas y $f(t,y(t),y^{\prime }(t))$ es una funci\'{o}n dada. \es Existen m\'{e}todos espec\'{\i}ficos para abordar este tipo de problemas (como por ejemplo los ``m\'{e}todos de tiro''), aunque aqu\'{\i} no los abordaremos. Su tratamiento num\'{e}rico, no obstante, puede realizarse mediante m\'{e}todos en diferencias finitas (v\'ease el siguiente cap\'{\i}tulo). Un estudio detallado de m\'{e}todos num\'{e}ricos para problemas de contorno regidos por EDO puede encontrarse en algunas de las referencias que se citan en la bibliograf\'{\i}a de este tema. N\'otese finalmente que desde el punto de vista f\'{\i}sico los problemas de contorno del II orden del tipo (\ref{contorno}) representan, en fluido-din\'amica y en fen\'omenos de transporte procesos de difusi\'on, convecci\'on y reacci\'on. \enobse \subsection{Tipos de m\'{e}todos de resoluci\'{o}n de problemas de valor inicial} Existen numerosos tipos de m\'{e}todos para la resoluci\'{o}n de problemas de valor inicial. Sin pretender ser exhaustivos en la descripci\'{o}n de ellos pueden citarse los siguientes: \es \textbf{A) }\underline{\textbf{M\'{e}todos gr\'{a}ficos.}} \es Se basan, fundamentalmente, en buscar el significado geom\'{e}trico de la EDO a resolver construyendo lo que habitualmente se conoce como el campo de direcciones, esto es, los valores de la pendiente de la soluci\'{o}n (los valores de $f(t,y)$) en un dominio m\'{a}s o menos amplio del espacio $% \R^{2}$. Con ello, partiendo de $(t_{0},y_{0})$ se reconstruye gr\'{a}ficamente la soluci\'{o}n buscada. El m\'{a}s popular de estos m\'{e}todos es el m\'{e}todo conocido como \textbf{m\'{e}todo de las isoclinas} (del cual puede encontrarse una descripci\'{o}n, por ejemplo, en el libro del Pr. Guzm\'{a}n\footnote{Guzm\'{a}n, M. de (1987). ``Ecuaciones diferenciales ordinarias. Teor\'{\i}a de estabilidad y control'' (3${{}^{a}}$ reimpresi\'{o}n). Ed. Alhambra Universidad.}). Este tipo de m\'{e}todos, que fueron relativamente populares hasta los comienzos del siglo XX, est\'{a} ya pr\'{a}cticamente en desuso pues, aparte de ser bastante poco precisos, no son aplicables a problemas en los que aparecen sistemas de ecuaciones diferenciales con m\'{a}s de 2 ecuaciones. No obstante, sus fundamentos geom\'{e}tricos est\'{a}n en los or\'{\i}genes de muchos de los m\'{e}todos num\'{e}ricos empleados hoy en d\'{\i}a. \es \textbf{B) }\underline{\textbf{M\'{e}todos anal\'{\i}ticos.}} \es Son los m\'{e}todos cl\'{a}sicos de resoluci\'{o}n de ecuaciones diferenciales ordinarias (factor integrante, separaci\'{o}n de variables, cambios de variables, reducci\'{o}n a homog\'{e}neas, m\'{e}todo de la mayorante, etc...). En numerosas referencias (Guzm\'{a}n\footnote{Guzm\'{a}n, M. de (1987). ``Ecuaciones diferenciales ordinarias. Teor\'{\i}a de estabilidad y control'' (3${{}^{a}}$ reimpresi\'{o}n). Ed. Alhambra Universidad.}, Marcell\'{a}n et al.\footnote{Marcell\'{a}n, F., Casas\'{u}s, L. y Zarzo, A. (1991). ``Ecuaciones diferenciales. Problemas lineales y aplicaciones''. Ed. McGraw Hill.}, Mart\'{\i}nez y Sanz\footnote{Mart\'{\i}nez, C. y Sanz, M.A. (1991). ``Introducci\'{o}n a las ecuaciones diferenciales ordinarias''. Ed. Revert\'{e}.}, etc...) pueden encontrarse magn\'{\i}ficas descripciones y an\'{a}lisis de este tipo de m\'{e}todos ... y de sus l\'{\i}mites de aplicabilidad. Su principal inconveniente es que ``cada ecuaci\'{o}n diferencial ordinaria tiene su m\'{e}todo anal\'{\i}tico de resoluci\'{o}n'' y su aplicaci\'{o}n puede ser complicada (determinaci\'{o}n de un cambio de variable ``afortunado'', conocimiento previo de una soluci\'{o}n particular de la EDO, b\'{u}squeda de un factor integrante, etc...). Ello por no citar que existen ecuaciones diferenciales ordinarias de las que no se conocen m\'{e}todos anal\'{\i}ticos que puedan resolverlas. No obstante, desde el punto de vista num\'{e}rico este tipo de m\'{e}todos anal\'{\i}ticos son de gran utilidad para, sobre problemas ``test'', disponer de soluciones exactas con las que contrastar el comportamiento de los m\'{e}todos num\'{e}ricos. \es \textbf{C) }\underline{\textbf{M\'{e}todos basados en desarrollos de Taylor}% } \es En s\'{\i}ntesis, este tipo de m\'{e}todos consisten en expresar el valor de la funci\'{o}n soluci\'{o}n en un punto $t$ a trav\'{e}s del desarrollo en serie de Taylor de la funci\'{o}n soluci\'{o}n $y(t)$ en torno a $t_{0}.$ M\'{a}s concretamente: \[ y(t)=y(t_{0})+(t-t_{0})y^{\prime }(t_{0})+\frac{(t-t_{0})^{2}}{2}y^{\prime \prime }(t_{0})+.....+\frac{(t-t_{0})^{m}}{m!}y^{(m}(t_{0})+.... \] estim\'{a}ndose los valores de la funci\'{o}n $y(t)$ y de sus derivadas en $% t_{0}$ a partir de la condici\'{o}n inicial y de la propia funci\'{o}n $% f(t,y(t)).$ As\'{\i} se tiene que: \[ y(t_{0})=y_{0} \] luego considerando la EDO y evaluando en $t=t_0$ se deduce \[ y^{\prime }(t)=f(t,y(t))\quad \Rightarrow \quad y^{\prime }(t_{0})=f(t_{0},y_{0}). \] Si derivamos la EDO, aplicamos la regla de la cadena y evaluamos en $t=t_0$ se tiene adem\'as \[ y^{\prime \prime }(t)=\frac{df}{dt}(t,y(t))=\frac{\partial f}{\partial t}% (t,y(t))+\frac{\partial f}{\partial y}(t,y(t))\frac{dy}{dt}(t)\quad \Rightarrow \] \[ \Rightarrow \quad y^{\prime \prime }(t_{0})=\frac{\partial f}{\partial t}% (t_{0},y_{0})+f(t_{0},y_{0})\frac{\partial f}{\partial y}(t_{0},y_{0}) \] y as\'{\i} sucesivamente. Los problemas principales de estos m\'{e}todos se pueden resumir en, por una parte, la exigencia de regularidad elevada a la funci\'{o}n soluci\'{o}n $% y(t)$ para que pueda ser desarrollada en serie de Taylor hasta el grado que se desee y, por otra, en el esfuerzo de c\'alculo necesario que va increment\'{a}ndose paulatinamente para aproximar las derivadas de orden superior que intervienen en el desarrollo. No obstante, en los fundamentos de este tipo de m\'{e}todos se basan muchos estudios sobre el an\'{a}lisis del ``error'' de los m\'{e}todos num\'{e}ricos que abordaremos m\'{a}s adelante. \bejem Al problema de valor inicial de Blasius que cit\'{a}bamos en un ejemplo anterior: \[ \left\{ \begin{array}{c} y^{\prime \prime \prime }(x)+y(x) y^{\prime \prime }(x)=0,\qquad x\geq 0 \\ [0.2cm] y(0)=0,\quad y^{\prime }(0)=0,\quad y^{\prime \prime }(0)=0.47 \end{array} \right. \] bajo hip\'{o}tesis de regularidad de la soluci\'{o}n, puede aplic\'{a}rsele el m\'{e}todo de los desarrollos en serie de Taylor. \enejem En efecto, al aplicar el m\'{e}todo de los desarrollos en serie de Taylor resulta que \begin{eqnarray*} y(t) &=&y(0)+ty^{\prime }(0)+\frac{t^{2}}{2}y^{\prime \prime }(0)+\frac{% t^{3}}{3!}y^{^{\prime \prime \prime }}(0)+\frac{t^{4}}{4!}y^{(iv}(0)+ \\ &&+\frac{t^{5}}{5!}y^{(v}(0)+\frac{t^{6}}{6!}y^{(vi}(0)+\frac{t^{7}}{7!}% y^{(vii}(0)+\frac{t^{8}}{8!}y^{(viii}(0)+.... \end{eqnarray*} donde \[ y(0)=0,\quad y^{\prime }(0)=0,\quad y^{\prime \prime }(0)=0.47 \] y \[ y^{\prime \prime \prime }(t)=-y(t)\, y^{\prime \prime }(t)\quad \Rightarrow \quad y^{\prime \prime \prime }(0)=-y(0)\, y^{\prime \prime }(0)=(0)\, 0.47=0 \] \begin{eqnarray*} y^{(iv}(t) &=&-(y^{\prime }(t)\, y^{\prime \prime }(t)+y(t)\, y^{\prime \prime \prime }(t))\quad\Rightarrow\quad \\ [0.2cm] &\quad\Rightarrow\quad &y^{(iv}(0)=-(y^{\prime }(0)\, y^{\prime \prime }(0)+y(0)\, y^{\prime \prime \prime }(0))=0 \end{eqnarray*} \begin{eqnarray*} y^{(v}(t) &=&-\left( \left( y^{\prime \prime }(t)\right) ^{2}+2\, y^{\prime }(t)\, y^{\prime \prime \prime }(t)+y(t)\, y^{(iv}(t)\right) \quad\Rightarrow\quad \\ [0.2cm] &\quad\Rightarrow\quad &y^{(v}(0)=-\left( \left( y^{\prime \prime }(0)\right) ^{2}+2\, y^{\prime }(0)\, y^{\prime \prime \prime }(0)+y(0)\, y^{(iv}(0)\right) =-(0.47)^{2} \end{eqnarray*} \[ y^{(vi}(0)=0,\qquad y^{(vii}(0)=0 \] \[ y^{(viii}(0)=11\, \left( y^{\prime \prime }(0)\right) ^{3}=11\, (0.47)^{3} \] La introducci\'{o}n de estos valores en el desarrollo de Taylor de la soluci\'{o}n nos permite escribir esta como: \[ y(t)=0.235\, t^{2}-1.84083\, 10^{-3}\, t^{5}+2.8325\, 10^{-5}\, t^{8}+..... \] \es \textbf{D) }\underline{\textbf{M\'{e}todo de Picard (o de aproximaciones sucesivas)}} \es El m\'{e}todo de Picard toma su nombre del matem\'{a}tico franc\'{e}s Emile Picard (1856 a 1941) quien utiliz\'{o} la t\'{e}cnica de aproximaciones sucesivas para estudiar la existencia y unicidad de soluciones de problemas de valor inicial. En s\'{\i}ntesis el m\'{e}todo consiste en generar, a partir del valor $y_{0}$ con el que se define la condici\'{o}n inicial y habida cuenta de la expresi\'{o}n formal de la soluci\'{o}n del problema, la sucesi\'{o}n de funciones: \[ \begin{array}{ll} y_{0}(t) & =y_{0} \\ y_{1}(t) & =y_{0}+\displaystyle\int\limits_{t_{0}}^{t}f(x,y_{0}(x))dx \\ .... & .................... \\ y_{n+1}(t) & =y_{0}+\displaystyle\int\limits_{t_{0}}^{t}f(x,y_{n}(x))dx \\ .... & .................. \end{array} \] Bajo ciertas hip\'{o}tesis de regularidad sobre la funci\'{o}n $f(t,y)$, como las recogidas en el teorema siguiente, puede afirmarse que este m\'{e}todo converge hacia la soluci\'{o}n del problema de Cauchy: \beteor Siendo $(t^{*},y^{*})$ un punto del plano $\R^{2}$ y suponiendo que en un dominio $D=\{(t,y)/\;|t-t^{*}|\leq \varepsilon ,\;\;|y-y^{*}|<\delta \}$ la funci\'{o}n $f(t,y)$ es continua, est\'{a} acotada y verifica la condici\'{o}n de Lipschitz respecto a su segunda variable, y denotando por $M$ a un valor tal que \[ |f(x,y)|\leq M ,\qquad \forall \,(x,y)\in D \] por $L$ al valor: \[ L=\displaystyle\inf \left(\varepsilon ,\frac{\delta }{M}\right) \] y por $I$ al intervalo $I=(t^{*}-L,t^{*}+L),$ entonces existe una \'{u}nica funci\'{o}n $y(t)$ definida en $I$ que sea soluci\'{o}n del problema de Cauchy: \[ \left\{ \begin{array}{rcl} y^{\prime }(t) & = & f(t,y(t)),\qquad \forall t\in I \\ [0.2cm] y(t^{*})& = & y^{*} \end{array} \right. \] Adem\'{a}s dicha funci\'{o}n puede obtenerse como l\'{\i}mite de la sucesi\'{o}n de funciones ge\-ne\-ra\-da mediante: \[ \left\{ \begin{array}{ll} y_{0}(t) & =y^{*} \\ .... & .... \\ y_{n+1}(t) & =y^{*}+\displaystyle\int\limits_{t^{*}}^{t}f(x,y_{n}(x))dx \\ .... & .... \end{array} \right. \] \enteor \underline{Demostraci\'{o}n:} Cons\'{u}ltese, por ejemplo, T.M. Apostol\footnote{Apostol, T. M. (1997) ``Linear Algebra. A first course with applications to differential equations''.\ Ed. John Wiley \& Sons, Inc.}. \es Los principales inconvenientes para la aplicaci\'{o}n pr\'{a}ctica de este m\'{e}todo son que el c\'{a}lculo de las integrales $\displaystyle\int% \limits_{t_{0}}^{t}f(x,y_{n}(x))dx$ suele volverse cada vez m\'{a}s complicado, debiendo estimarse en ocasiones dichas integrales, para valores concretos de $t$, mediante aproximaciones num\'{e}ricas ... con lo que se acaba obteniendo aproximaciones de los valores de la soluci\'{o}n en ciertos puntos $t_{i}$ en lugar de la expresi\'{o}n de la soluci\'{o}n. Y ello, como veremos, puede realizarse de forma m\'{a}s eficiente con los m\'{e}todos num\'{e}ricos basados en diferencias finitas. A favor del m\'{e}todo de Picard puede se\~{n}alarse que es una herramienta de enorme utilidad en el estudio te\'{o}rico de la existencia y unicidad de la soluci\'{o}n de los problemas de Cauchy. Adem\'{a}s algunos m\'{e}todos que estudiaremos pueden interpretarse como variantes del m\'{e}todo de Picard. \es Para poner de manifiesto tanto la forma operativa del m\'{e}todo como sus inconvenientes pr\'{a}cticos, ilustremos el m\'{e}todo de Picard con algunos ejemplos extra\'{\i}dos de T.M. Apostol$^9$ %\footnote{Apostol, T. M. (1997) ``Linear Algebra. A first course with %applications to differential equations''.\ Ed. John Wiley \& Sons, Inc.} tal cual aparecen en dicha referencia o con ligeras modificaciones de los mismos: \bejem Determ\'{\i}nese mediante el m\'{e}todo de Picard la soluci\'{o}n del P.V.I.: \[ \left\{ \begin{array}{ll} y^{\prime }(t) & =t^{2}+y^{2},\qquad t\geq 0 \\[0.2cm] y(0) & =0 \end{array} \right. \] \enejem Generemos la sucesi\'{o}n del m\'{e}todo: \[ \begin{array}{lll} y_{0}(t) & =y(0) & =0 \\ [0.2cm] y_{1}(t) & =0+\displaystyle\int\limits_{0}^{t}\displaystyle\left(x^{2}+0^{2}\right)dx & =\displaystyle\frac{t^{3}}{3} \\ [0.2cm] y_{2}(t) & =0+\displaystyle\int\limits_{0}^{t}\left(x^{2}+\left(x^{3}/3\right)^{2}\right)dx & =\displaystyle\frac{% t^{3}}{3}+\displaystyle\frac{t^{7}}{63} \\ [0.2cm] y_{3}(t) & =0+\displaystyle\int\limits_{0}^{t}\dis \left(x^{2}+(x^{3}/3+x^{7}/63)^{2}\right)dx & =\displaystyle\frac{t^{3}}{3}+\displaystyle\frac{t^{7}}{63}+\displaystyle\frac{2t^{11}}{2079}+\displaystyle\frac{t^{15}}{59535} \end{array} \] Como puede apreciarse a medida que aumenta el valor de $n$ tambi\'{e}n aumenta la complejidad en la evaluaci\'{o}n de la correspondiente integral. Se deja como ejercicio al lector comprobar que $y_{4}(t)$ es un polinomio de grado $31$ y que $y_{5}(t)$ resultar\'{a} un polinomio de grado $63.$ Y si bien es cierto que, al crecer el valor de los denominadores de los coeficientes de dicho polinomio, con ``pocos'' t\'{e}rminos de \'{e}l se podr\'{\i}a obtener una aproximaci\'{o}n razonablemente buena de la soluci\'{o}n para valores de $t$ inferiores a $1,$ no es menos cierto que para valores mayores de $t$ la aproximaci\'{o}n de la funci\'{o}n exige calcular las expresiones de $y_{n}(t)$ para valores elevados de $n$ pues la variable $t$ aparece elevada a exponentes cada vez mayores. Por ejemplo, para $t=3,$ el t\'{e}rmino en $t^{11}$ toma el valor $\frac{354294}{2079}% =170.4155844$ que no es depreciable (y para la potencia $15$ el valor es a\'{u}n mayor: $241.0163265).$ \bejem Determ\'{\i}nese mediante el m\'{e}todo de Picard la soluci\'{o}n del P.V.I.: \[ \left\{ \begin{array}{ll} y^{\prime }(t) & =2t+e^{y}\qquad t\geq 0 \\ y(0) & =0 \end{array} \right. \] \enejem Generemos la sucesi\'{o}n del m\'{e}todo: \[ \begin{array}{lll} y_{0}(t) & =y(0) & =0 \\ y_{1}(t) & =0+\displaystyle\displaystyle\int\limits_{0}^{t}(2x+e^{0})dx & =t^{2}+t \\[0.2cm] y_{2}(t) & =0+\displaystyle\int\limits_{0}^{t}(2x+e^{x^{2}+x})dx & =t^{2}+\displaystyle\int% \limits_{0}^{t}e^{x^{2}+x}dx \end{array} \] La \'{u}ltima integral que aparece no puede evaluarse en t\'{e}rminos de funciones elementales. En efecto: \[ \displaystyle\displaystyle\int\limits_{0}^{t}e^{x^{2}+x}dx=-\frac{i}{2}\, \mbox{erf} (i\, t+\frac{i}{2}% )\, \sqrt{\pi }\, e^{-1/4}+\frac{i}{2}\, \mbox{erf} (\frac{i}{2})\, \sqrt{% \pi }\, e^{-1/4} \] No obstante, para un valor prefijado $t=t^{*}$ la integral puede aproximarse mediante alguna f\'{o}rmula de integraci\'{o}n num\'{e}rica (ver C. Conde y E. Schiavi\footnote{Conde, C. y Schiavi, E. (2000) ``Elementos de Matem\'{a}ticas: Guiones de los temas de la asignatura''. Apuntes. Universidad Rey Juan Carlos.}). \bejem Determ\'{\i}nese mediante el m\'{e}todo de Picard la soluci\'{o}n del P.V.I.: \[ \left\{ \begin{array}{ll} y^{\prime }(t) & =2\, e^{t}-y\qquad t\geq 0 \\ y(0) & =1 \end{array} \right. \] \enejem Generemos la sucesi\'{o}n del m\'{e}todo: \[ \begin{array}{lll} y_{0}(t) & =y(0) & =1 \\ y_{1}(t) & =1+\displaystyle\int\limits_{0}^{t}(2e^{x}-1)\, dx & =2\, e^{t}-t-1 \\ y_{2}(t) & =1+\displaystyle\int\limits_{0}^{t}(2\, e^{x}-2\, e^{x}+x+1)\, dx & =% \frac{t^{2}}{2}+t+1 \\ y_{3}(t) & =1+\displaystyle\int\limits_{0}^{t}(2\, e^{x}-\frac{x^{2}}{2}-x-1)\, dx & =2\, e^{t}-\frac{t^{3}}{3!}-\frac{t^{2}}{2}-t-1 \\ y_{4}(t) & =1+\displaystyle\int\limits_{0}^{t}\left(2\, e^{x}-2\, e^{x}+\displaystyle\frac{x^{2}}{2}% +x+1\right)\, dx & =\displaystyle\frac{t^{4}}{4!}+\displaystyle\frac{t^{3}}{3!}+\displaystyle\frac{t^{2}}{2}+t+1 \end{array} \] En general se verifica: \[ y_{2\, n}(t)=\sum\limits_{i=0}^{2\, n}\frac{t^{i}}{i!}\qquad \Rightarrow \qquad \lim_{n\to \infty } y_{2\, n}(t)=\lim_{n\to\infty } \sum\limits_{i=0}^{2\, n}\frac{t^{i}}{i!}% =e^{t} \] \[ y_{2\, n+1}(t)=2\, e^{t}-\sum\limits_{i=0}^{2\, n+1}\frac{t^{i}}{i!}% \quad \Rightarrow \quad \lim_{n\to \infty } y_{2\, n+1}(t)=2e^{t}-\lim_ {n\to \infty } \sum\limits_{i=0}^{2% \, n+1}\frac{t^{i}}{i!}=e^{t} \] por lo que \[ y(t)=\lim_{n\to \infty } y_{n}(t)=e^{t}. \] \bejem Determ\'{\i}nese mediante el m\'{e}todo de Picard la soluci\'{o}n del P.V.I.: \[ \left\{ \begin{array}{ll} y^{\prime }(t) & =\sup\{t,y(t)\},\qquad -1\leq t\leq 1 \\ y(0) & =1 \end{array} \right. \] \enejem El problema de Cauchy anterior puede descomponerse en los dos problemas si\-guien\-tes: \[ (P-1)\left\{ \begin{array}{ll} y^{\prime }(t) & =\sup\{t,y(t)\}\qquad -1\leq t\leq 0 \\ y(0) & =1 \end{array} \right. \] \[ (P-2)\left\{ \begin{array}{ll} y^{\prime }(t) & =\sup\{t,y(t)\}\qquad 0\leq t\leq 1 \\ y(0) & =1 \end{array} \right. \] Realizando el cambio de variable $t=-\widetilde{t},$ con lo que $y(t)=y(-% \widetilde{t})$ por lo que se verifica que $y^{\prime }(t)=-y^{\prime }(% \widetilde{t})$, el problema $(P-1)$ puede formularse como: \[ (\widetilde{P}-1)\quad \left\{ \begin{array}{ll} y^{\prime }(\widetilde{t}) & =-\sup \displaystyle\left\{-\widetilde{t},y(-\widetilde{t}% )\right\}\qquad 0\leq \widetilde{t}\leq 1 \\ [0.2cm] y(0) & =1 \end{array} \right. \] Generemos la sucesi\'{o}n del m\'{e}todo de Picard para $(\widetilde{P}-1)$: \[ \begin{array}{lll} y_{0}(\widetilde{t}) & =y(0) & =1 \\[0.2cm] y_{1}(\widetilde{t}) & =1-\displaystyle\int\limits_{0}^{\widetilde{t}}\sup (-x,1)\, dx & =1-\widetilde{t} \\[0.2cm] y_{2}(\widetilde{t}) & =1-\displaystyle\int\limits_{0}^{\widetilde{t}}\sup (-x,1-x)\, dx & =1-\widetilde{t}+\displaystyle\frac{\widetilde{t}^{2}}{2} \\[0.2cm] y_{3}(\widetilde{t}) & =1-\displaystyle\int\limits_{0}^{\widetilde{t}}\displaystyle\sup \left( -x,1-x+\frac{% x^{2}}{2}\right)\, dx & =1-\widetilde{t}+\displaystyle\frac{\widetilde{t}^{2}}{2}-\frac{% \widetilde{t}^{3}}{3!} \end{array} \] de esta forma se tiene, en general, que \[ \widetilde{y}_{n}(\widetilde{t})=\sum\limits_{i=0}^{n}(-1)^{i}\, \frac{% \widetilde{t}^{i}}{i!}\qquad \Rightarrow \qquad y_{n}(t)=y_{n}(-\widetilde{t}% )=\sum\limits_{i=0}^{n}\frac{t^{i}}{i!} \] por lo que \[ y(t)=\lim_{n\to \infty } y_{n}(t)=\lim_ {n\to\infty } \sum\limits_{i=0}^{n}\frac{t^{i}}{i!} =e^{t},\qquad -1\leq t\leq 0. \] An\'{a}logamente para el problema $(P-2)$ se tendr\'{a} que: \[ \begin{array}{lll} y_{0}(t) & =y(0) & =1 \\[0.2cm] y_{1}(t) & =1+\displaystyle\int\limits_{0}^{t}\sup(x,1)\, dx & =1+t \\[0.2cm] y_{2}(t) & =1+\displaystyle\int\limits_{0}^{t}\sup(x,1+x)\, dx & =1+t+\displaystyle\frac{t^{2}}{2} \\[0.2cm] y_{3}(t) & =1+\displaystyle\int\limits_{0}^{t}\sup \left(x,1+x+\displaystyle\frac{x^{2}}{2}\right)\, dx & =1+t+% \displaystyle\frac{t^{2}}{2}+\displaystyle\frac{t^{3}}{3!} \end{array} \]luego \[ y(t)=\lim_{n\to \infty } y_{n}(t)=\lim_{n\to \infty } \sum\limits_{i=0}^{n}\frac{t^{i}}{i!}% =e^{t},\qquad 0\leq t\leq 1. \] En resumen, la soluci\'{o}n del problema de Cauchy planteado, en el intervalo $[-1,\,1]$ es $y(t)=e^{t}$. \es \textbf{E) }\underline{\textbf{M\'{e}todos num\'{e}ricos (o en diferencias finitas).}} \es Este tipo de m\'{e}todos, a diferencia de los anteriores, no persiguen la determinaci\'{o}n de la expresi\'{o}n de la funci\'{o}n soluci\'{o}n $y(t)$ de un problema de valor inicial. Tan s\'{o}lo persiguen calcular, de forma aproximada, el valor de la soluci\'{o}n en ciertos puntos $t_{i}$ para $ i=0,1,2,...,N$ seleccionados (bien de antemano por el usuario de dichos m\'{e}todos, bien de forma ``autom\'{a}tica'' a trav\'{e}s de algoritmos dise\~{n}ados para su c\'{a}lculo con el objeto de asegurar ciertas tolerancias de error entre el valor exacto (desconocido) y el valor aproximado por el m\'{e}todo). Para su descripci\'{o}n, siendo $% I=[t_{0},t_{0}+T]$ consideremos dados los puntos en los que se va a determinar la soluci\'{o}n y que denotaremos por: \[ t_{0}1$ los m\'{e}todos correspondientes se dicen \textbf{m\'{e}todos de pasos ligados} o \textbf{% m\'{e}todos multipaso}. Los m\'{e}todos multipaso de $k$ pasos s\'{o}lo podr\'{a}n utilizarse a partir del conocimiento de los $k$ primeros valores: $y_{0},y_{1},....,y_{k-1}.$ Para la determinaci\'{o}n de estos deber\'{a}n emplearse m\'{e}todos de un menor n\'{u}mero de pasos. Y la combinaci\'{o}n de unos y otros no es trivial pues interesa no ``estropear'' la precisi\'{o}n que pueda conseguirse con el m\'{e}todo de $k$ pasos por utilizar m\'{e}todos menos precisos en las etapas iniciales. Adem\'{a}s, conviene advertir ya, desde el comienzo, que la consideraci\'{o}n de un n\'{u}mero mayor de pasos no implica necesariamente la mejor\'{\i}a de las aproximaciones obtenidas. Es relativamente frecuente que un m\'{e}todo de un paso bien elegido conduzca a soluciones m\'{a}s baratas de obtener e igual o m\'{a}s precisas que un m\'{e}todo multipaso. \beobse Recordando la expresi\'{o}n formal de la soluci\'{o}n de un P.V.I.: \[ y(t)=y_{0}+\displaystyle\int\limits_{t_{0}}^{t}f(x,y(x))\, dx \] se podr\'{\i}a expresar el valor de la soluci\'{o}n en un instante $t=t_{n}$ como: \[ y(t_{n})=y_{0}+\displaystyle\int\limits_{t_{0}}^{t_{n}}f(x,y(x))\, dx=y_{0}+\displaystyle\int\limits_{t_{0}}^{t_{n-1}}f(x,y(x))\, dx+\displaystyle\int\limits_{t_{n}-1}^{t_{n}}f(x,y(x))\, dx \quad \Rightarrow \] \[ \Rightarrow \quad y(t_{n})=y(t_{n-1})+\displaystyle\int\limits_{t_{n-1}}^{t_{n}}f(x,y(x))\, dx \] En este sentido, una interpretaci\'{o}n de la expresi\'{o}n anterior (recogida por ejemplo en Shampine et al.\footnote{Shampine, L.F., Allen, R.C. Jr. y Pruess, S. (1997). ``Fundamentals of numerical computing''. Ed. John Wiley \& Sons, Inc.}) consiste en decir que el valor exacto de la soluci\'{o}n en el instante $t_{n}$ depende s\'{o}lamente del valor en $t_{n-1}$ y no de valores anteriores. En otros t\'{e}minos, lo anterior puede resumirse diciendo que la soluci\'{o}n anal\'{\i}tica de un P.V.I. no tiene ``memoria'' de lo que sucede en instantes anteriores al instante $t_{n-1}$. Ello es utilizado por los defensores de los m\'{e}todos de pasos libres para justificar la bondad de estos m\'{e}todos frente a los de pasos ligados ya que, en los primeros, las soluciones aproximadas tienen un comportamiento similar (sin ``memoria'') al de la soluci\'{o}n exacta. \enobse Por otra parte, si el m\'{e}todo se formula en la forma: \[ y_{n}=\Phi (y_{n-k},y_{n-k+1},....,y_{n-1}) \] diremos que es un m\'{e}todo \textbf{expl\'{\i}cito} pues el c\'{a}lculo de $% y_{n}$ tan s\'{o}lo implica evaluar la funci\'{o}n $\Phi (y_{n-k},y_{n-k+1},....,y_{n-1}).$ En el caso de que el m\'{e}todo se formule como: \[ y_{n}=\Phi (y_{n-k},y_{n-k+1},....,y_{n}) \] el m\'{e}todo se dir\'{a} \textbf{impl\'{\i}cito} pues el valor de $y_{n}$ depende del propio $y_{n}.$ Por ello, la determinaci\'{o}n de $y_{n}$ exigir\'{a} resolver la ecuaci\'{o}n algebraica: \[ y_{n}-\Phi (y_{n-k},y_{n-k+1},....,y_{n})=0 \] por ejemplo, utilizando alguna de las t\'{e}cnicas estudiadas en el cap\'{\i}tulo anterior de estos apuntes. En general son m\'{e}todos m\'{a}s costosos en cada uno de los pasos de integraci\'{o}n (aunque puedan presentar tambi\'{e}n ventajas como el permitir considerar pasos de integraci\'{o}n de mayor tama\~{n}o, como m\'{a}s adelante detallaremos). A analizar el comportamiento de este tipo de m\'{e}todos num\'{e}ricos dedicaremos el resto de este tema. Y para ilustrarlos con m\'{a}s detalle comenzaremos abordando, en el apartado siguiente, el m\'{a}s simple de todos y alguna de sus variantes. \section{El m\'{e}todo de Euler y variantes de \'{e}l}\label{meyv} Consideramos de nuevo el problema de valor inicial \[ \left\{ \begin{array}{lll} y^{\prime }(t) & =f(t,y(t)), & t\in [t_{0},t_{0}+T] \\ y(t_{0}) & =y_{0} & \end{array} \right. \] y una subdivisi\'{o}n del intervalo $[t_{0},t_{0}+T]$ mediante los puntos: \[ t_{0}0 \\[0.3cm] y(0) & =& 1 & \end{array} \right. $$ donde $k$ es una constante positiva. Este sencillo problema (que es una EDO de variables separadas), admite como soluci\'{o}n anal\'{\i}tica: \[ y(t)=e^{-kt} \] Obs\'{e}rvese que la soluci\'{o}n anal\'{\i}tica es decreciente y siempre positiva, caracter\'{\i}sticas que ser\'{\i}a deseable que poseyesen tambi\'{e}n las soluciones aproximadas que nos generen los esquemas num\'{e}ricos al aplicarlos a este caso concreto. \es La aplicaci\'{o}n de los esquemas de Euler expl\'{\i}cito, Euler impl\'{\i}cito y $\theta $-m\'{e}todos en general al P.V.I. considerado, suponiendo de momento que la longitud entre los instantes de c\'{a}lculo es constante, $h$, se reduce a: \es \begin{itemize} \item[a)] Euler expl\'{\i}cito: \[ y_{n+1}=y_{n}+h\, (-k\, y_{n})\Rightarrow y_{n+1}=(1-k\, h)\, y_{n} \] y por recursi\'{o}n \[ y_{n+1}=(1-k\, h)^{n+1}\, y_{0} \] \item[b)] Euler impl\'{\i}cito: \[ y_{n+1}=y_{n}+h\, (-k\, y_{n+1})\Rightarrow y_{n+1}=\left( \frac{1}{% 1+k\, h}\right) \, y_{n} \] y por recursi\'{o}n \[ y_{n+1}=\left( \frac{1}{1+k\, h}\right) ^{n+1}y_{0} \] \item[c)] $\theta $-m\'{e}todos: \begin{eqnarray*} y_{n+1} &=&y_{n}-h\, ((1-\theta )\, k\, y_{n}+\theta \, k\, y_{n+1})\quad \Rightarrow \\ [0.3cm] &\Rightarrow &y_{n+1}=\left( \frac{1-(1-\theta )\, k\, h}{1+\theta \, k\, h}\right) \, y_{n} \end{eqnarray*} y por recursi\'{o}n \[ y_{n+1}=\left( \frac{1-(1-\theta )\, k\, h}{1+\theta \, k\, h}% \right) ^{n+1}\, y_{0} \] \end{itemize} Examinemos cuando estas soluciones son decrecientes y positivas. \es En el primer caso, m\'{e}todo de Euler expl\'{\i}cito, la soluci\'{o}n aproximada en cada instante de tiempo $t_{n+1}$ es la condici\'{o}n inicial $% (y(0)=y_{0}=1)$ multiplicada por $\alpha ^{n+1}$ donde hemos denotado por $% \alpha $ al valor $\alpha =(1-k\, h)$, es decir escribimos el esquema de Euler expl\'{\i}cito en la forma: $y_{n}=\alpha ^{n}\, y_{0}=\alpha ^{n}.$ Para que la soluci\'{o}n aproximada efectivamente decrezca (al menos en valor absoluto) deber\'{a} verificarse que $|\alpha |<1.$ Puesto que hemos supuesto $k>0$ y la longitud del paso tambi\'{e}n es positiva, un peque\~{n}o c\'{a}lculo nos conduce a que el decaimiento en los valores absolutos de la soluci\'{o}n se preservar\'{a} si: \[ 00$). En este caso la soluci\'{o}n aproximada tambi\'{e}n puede expresarse como: \[ y_{n}=\alpha ^{n}y_{0}\;\;\;\;\;(n=1,2,....,N) \] siendo ahora \[ \alpha =\left( \frac{1-(1-\theta )\, k\, h}{1+\theta \, k\, h}% \right) =\frac{1+\theta \, k\, h-k\, h}{1+\theta \, k\, h}=1-% \frac{k\, h}{1+\theta \, k\, h} \] Puesto que $0<\theta \leq 1,$ y $k>0$ se verificar\'{a} que $\alpha $ siempre ser\'{a} inferior a $1.$ Para garantizar que tambi\'{e}n es superior a $-1$ se debe verificar que: \[ \frac{k\, h}{1+\theta \, k\, h}<2\Rightarrow (1-2\, \theta )\, k\, h<2 \] En el caso de que $\theta \geq 0.5$ la expresi\'{o}n anterior se verificar\'{a} para cualquier valor que se tome para $h:$ el esquema en ese caso es incondicionalmente estable. Y si $\theta <0.5$ la condici\'{o}n a imponer sobre el paso de integraci\'{o}n para garantizar la estabilidad, ser\'{a}: \[ h<\frac{2}{k\, (1-2\, \theta )} \] Estas elecciones del valor del paso de integraci\'{o}n nos aseguran que el valor de la soluci\'{o}n aproximada que se obtenga tambi\'{e}n va a decaer hacia $0$ para tiempos grandes. Si adem\'{a}s se desease asegurar la positividad de las soluciones aproximadas se deber\'{\i}a ``hilar un poco m\'{a}s fino''.\ En efecto para que esto suceda se debe obligar a que $% 0<\alpha <1.$ Ello nos conduce a que: \[ \frac{k\, h}{1+\theta \, k\, h}<1 \quad \Rightarrow \quad (1-\theta )\, k\, h<1 \quad \Rightarrow \quad h<\frac{1}{k\, (1-\theta )} \] Obs\'{e}rvese que cuanto m\'{a}s se aproxime $\theta $ al valor $1$ mayor ser\'{a} el tama\~{n}o de paso m\'{a}ximo que puede ser tomado para garantizar tanto la ``estabilidad'' de la soluci\'{o}n aproximada (es decir que no explote para tiempos grandes) como su positividad. Particularmente para $\theta =1$ (esquema de Euler impl\'{\i}cito) cualquier tama\~{n}o del paso de integraci\'{o}n nos servir\'{\i}a para asegurar ambas cosas. Para el esquema de Crank-Nicholson la ``estabilidad'' nos la garantizar\'{\i}a cualquier tama\~{n}o del paso pero la positividad nos obligar\'{\i}a a considerar tama\~{n}os inferiores a $2/k.$ Ello nos ampl\'{\i}a el tama\~{n}o del paso que puede ser tomado respecto al esquema expl\'{\i}cito (en el que la positividad y la estabilidad se aseguraban con tama\~{n}os inferiores a $% 1/k$). Ilustremos lo anterior con la aplicaci\'{o}n de los esquemas de Euler impl\'{\i}cito y de Crank-Nicholson al problema: \[ \left\{ \begin{array}{lll} y^{\prime }(t) & =-5.y(t), &\qquad t>0 \\[0.3cm] y(0) & =1 & \end{array} \right. \] para distintos valores del paso de integraci\'{o}n. Comencemos con el m\'{e}todo de Euler impl\'{\i}cito que, en este caso se formular\'{a} como: \begin{eqnarray*} y_{0} &=&1 \\ y_{n} &=&\dis \left( \frac{1}{1+5\, h}\right) ^{n},\qquad (n=1,2,3...) \end{eqnarray*} y que ser\'{a} estable y positivo para todos los valores de h que se consideren. %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%5 \begin{figure} \centering \includegraphics[width=0.6\textwidth]{fig59.eps} %\caption{} %\label{figura9} \end{figure} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%5 \begin{figure} \centering \includegraphics[width=0.6\textwidth]{fig510.eps} %\caption{} %\label{figura10} \end{figure} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% Como puede apreciarse las soluciones, efectivamente siempre permanecen positivas y decrecen con el tiempo. Pero tambi\'{e}n puede advertirse como su precisi\'{o}n es m\'{a}s pobre a medida que se aumenta el paso de integraci\'{o}n temporal. Adem\'{a}s la soluci\'{o}n es aproximada en ``exceso'', es decir, con valores mayores que la exacta, a diferencia de lo que suced\'{\i}a en el m\'{e}todo expl\'{\i}cito. Presentemos ahora algunos resultados obtenidos con el m\'{e}todo de Crank-Nicholson: \begin{eqnarray*} y_{0} &=&1 \\ y_{n} &=&\left( \frac{1-0.5\, 5\, h}{1+0.5\, 5\, h}\right) ^{n}\;\;\;\;\;(n=1,2,3...) \end{eqnarray*} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%5 \begin{figure} \centering \includegraphics[width=0.6\textwidth]{fig511.eps} %\caption{} %\label{figura11} \end{figure} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% Obs\'{e}rvese como, de momento, todas las soluciones permanecen positivas y, adem\'{a}s, el m\'{e}todo no parece tan sensible al paso de integraci\'{o}n en cuanto a su precisi\'{o}n. No obstante si sobrepasamos el l\'{\i}mite $% h=2/k=2/5$ $=0.4$ para el tama\~{n}o del paso comenzaremos a perder la positividad y a notar la influencia del valor de h. %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%5 \begin{figure} \centering \includegraphics[width=0.6\textwidth]{fig512.eps} %\caption{} %\label{figura12} \end{figure} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \beobse Esta cualidad de los esquemas impl\'{\i}citos, poder considerar pasos de integraci\'{o}n m\'{a}s amplios que en los expl\'{\i}citos sin perder la estabilidad, permite pensar en abordar problemas que se planteen en dominios $[t_{0},t_{0}+T]$ en los que $T$ tome valores elevados. Pi\'{e}nsese, por ejemplo, que la EDO $y^{\prime }=-k\, y$ es la que rige procesos de desintegraci\'{o}n de is\'{o}topos radiactivos que, por su peligrosidad hacia el entorno, pueden requerir estudiarlos durante millones de a\~{n}os lo que har\'{\i}a inviable la consideraci\'{o}n de pasos de integraci\'{o}n excesivamente peque\~{n}os. Pero, lamentablemente, no todo es la estabilidad y la positividad de los esquemas de c\'{a}lculo sino que, adem\'{a}s, habr\'{a} que prestar atenci\'{o}n a su ``precisi\'{o}n'' como se har\'{a} un poco m\'{a}s adelante. Y a otros problemas como el que se plantea en el ejemplo siguiente. \enobse \subsubsection{Tercer ejemplo: En los problemas impl\'{\i}citos puede no haber unicidad de la soluci\'{o}n aproximada.} El ejemplo anterior puede llevarnos a la conclusi\'{o}n de que los esquemas impl\'{\i}citos son ``mejores'' que los expl\'{\i}citos y a plantearnos entonces el por qu\'{e} de estos \'{u}ltimos. No obstante recordemos que los esquemas impl\'{\i}citos exigen, en general, resolver una ecuaci\'{o}n algebraica de tipo no lineal. Ello, aparte del esfuerzo computacional que pueda requerir, plantea algunos problemas adicionales tales como: \textquestiondown con qu\'{e} valor se inicializa el m\'{e}todo de resoluci\'{o}n de ecuaciones no lineales? y dado que la ecuaci\'{o}n algebraica puede tener m\'{a}s de una soluci\'{o}n \textquestiondown c\'{o}mo podemos obtener entre ellas la ``m\'{a}s conveniente''?. Esta situaci\'{o}n es la que pretendemos ilustrar en este ejemplo resolvi\'endola a trav\'{e}s de la consideraci\'{o}n de los denominados esquemas ``predictor-corrector''. \es Consid\'{e}rese el problema de valor inicial formulado mediante: $$ \left\{ \begin{array}{rcll} y^{\prime }(t) & =& -y^2 (t), & t>0 \\[0.3cm] y(0) & =& 1 & \end{array} \right. $$ La soluci\'{o}n anal\'{\i}tica de este problema, cuya EDO es una ecuaci\'{o}n de tipo Bernoulli, puede obtenerse realizando el cambio de variable: \[ u(t)=\frac{1}{y(t)} \] lo que nos conduce a que \[ u^{\prime }(t)=\frac{-y(t)}{y^{2}(t)} \] lo cual nos permite integrar la EDO dada como sigue: \[ y^{\prime }(t)=-y^{2}(t) \quad \Rightarrow \quad \frac{y^{\prime }(t)}{y^{2}(t)}% =-1 \quad \Rightarrow \quad u^{\prime }(t)=1 \quad \Rightarrow \] \[ u(t)=C+t \quad \Rightarrow \quad y(t)=\frac{1}{C+t}. \] Obligando ahora a que se verifique la condici\'{o}n inicial se obtiene finalmente como soluci\'{o}n anal\'{\i}tica del P.V.I. planteado: \[ y(t)=\frac{1}{1+t} \] \bejer La EDO anterior tambi\'{e}n podr\'{\i}a considerarse como una EDO de variables separadas. Te dejamos como ejercicio propuesto el resolverla de esta ma\-ne\-ra obteniendo la misma soluci\'{o}n del problema de valor inicial. \enejer Si aplicamos al problema de este ejemplo el m\'{e}todo de Euler impl\'{\i}cito, con paso de integraci\'{o}n constante $(h),$ obtendremos: \[ y_{n+1}+h\, y_{n+1}^{2}=y_{n}\;\;\;\;(n=0,1,2,..N-1) \] Tomemos, por ejemplo, $h=0.1$ y calculemos el valor aproximado de la soluci\'{o}n en $t_{1}=0.1.$ \[ y_{1}+0.1\, y_{1}^{2}=1\Rightarrow 0.1\, y_{1}^{2}+y_{1}-1=0 \] ecuaci\'{o}n de segundo grado que admite por soluciones: \[ y_{1}=\frac{-1\pm \sqrt{1+0.4}}{0.2} \] es decir, los valores: \[ -10.91607978....,\;\;\;\;\;0.91607978.... \] En este caso, en el que conocemos la soluci\'{o}n exacta $ (y(0.1)=1/1.1=0.909090...)$, es evidente que deber\'{\i}a optarse por la segunda de las aproximaciones obtenidas. Pero, en un caso real en el que no se conociese la soluci\'{o}n exacta \textquestiondown c\'{o}mo se podr\'{\i}a saber cu\'{a}l es la soluci\'{o}n a considerar?. En asusencia de criterios f\'{\i}sico-qu\'{\i}micos o t\'{e}cnicos no se pude descartar una soluci\'{o}n frente a otra. Por ello, en estos casos, lo aconsejable es acudir a los \textbf{m\'{e}todos predictor-corrector} en los que, en s\'{\i}ntesis, se utiliza un m\'{e}todo expl\'{\i}cito para (predecir) obtener el valor de partida con el que aplicar el m\'{e}todo de resoluci\'{o}n de ecuaciones no lineales a la ecuaci\'{o}n obtenida del esquema impl\'{\i}cito que nos permite refinar (corregir) el valor aproximado de la soluci\'{o}n finalmente obtenida. La aplicaci\'{o}n de esta forma de proceder a nuestro problema nos conducir\'{\i}a en el primer paso de integraci\'{o}n a: \es \hspace{1cm}\underline{Fase de predicci\'{o}n} mediante Euler expl\'{\i}cito: \[ y_{1}^{(0)}=y_{0}-h\, y_{0}^{2}=1-0.1\, (1)^{2}=0.9 \] \hspace{1cm}\underline{Fase de correcci\'{o}n} mediante Euler impl\'{\i}cito (resolviendo por el m\'{e}todo de aproximaciones sucesivas): \[ y_{1}^{(iter+1)}=y_{0}-h\, \left( y_{1}^{(iter)}\right) ^{2}\;\;\;\;\;\;(iter=0,1,2,....) \] que nos conduce a que \[ y_{1}^{(1)}=1-0.1\, (0.9)^{2}=0.919 \] \[ y_{1}^{(2)}=1-0.1\, (0.919)^{2}=0.9155439 \] \[ y_{1}^{(3)}=1-0.1\, (0.9155439)^{2}=0.916177 \] \[ y_{1}^{(4)}=1-0.1\, (0.916177)^{2}=0.9160617 \] \[ y_{1}^{(5)}=1-0.1\, (0.9160617)^{2}=0.9160838 \] \[ y_{1}^{(6)}=1-0.1\, (0.9160838)^{2}=0.9160792 \] \[ y_{1}^{(7)}=1-0.1\, (0.9160792)^{2}=0.9160798 \] por lo que tomaremos como $y_{1}=0.9160798$. \es En el segundo paso de integraci\'{o}n se tendr\'{\i}a: \es \hspace{1cm}\underline{Fase de predicci\'{o}n} mediante Euler expl\'{\i}cito: \[ y_{2}^{(0)}=y_{1}-h\, y_{1}^{2}=0.9160798-0.1\, (0.9160798)^{2}=0.8321595 \] \hspace{1cm}\underline{Fase de correcci\'{o}n} mediante Euler impl\'{\i}cito (resolviendo por el m\'{e}todo de aproximaciones sucesivas): \[ y_{2}^{(iter+1)}=y_{1}-h\, \left( y_{2}^{(iter)}\right) ^{2},\qquad (iter=0,1,2,....) \] que nos conduce a que \[ y_{2}^{(1)}=0.9160798-0.1\, (0.8321595)^{2}=0.8468308 \] \[ y_{2}^{(2)}=0.9160798-0.1\, (0.8468308)^{2}=0.8443675 \] \[ y_{2}^{(3)}=0.9160798-0.1\, (0.8443675)^{2}=0.8447841 \] \[ y_{2}^{(4)}=0.9160798-0.1\, (0.8447841)^{2}=0.8447137 \] \[ y_{2}^{(5)}=0.9160798-0.1\, (0.8447137)^{2}=0.8447256 \] \[ y_{2}^{(6)}=0.9160798-0.1\, (0.8447256)^{2}=0.8447236 \] \[ y_{2}^{(7)}=0.9160798-0.1\, (0.8447236)^{2}=0.8447239 \]por lo que tomaremos como $y_{2}=0.8447239$. \es El tercer paso de integraci\'{o}n que nos permitir\'{a} calcular $y_{3}\approx y(0.3)$ con\-sis\-ti\-r\'{a} en: \es \hspace{1cm}\underline{Fase de predicci\'{o}n} mediante Euler expl\'{\i}cito: \[ y_{3}^{(0)}=y_{2}-h\, y_{2}^{2}=0.8447239-0.1\, (0.8447239)^{2}=0.7733681 \] \hspace{1cm}\underline{Fase de correcci\'{o}n} mediante Euler impl\'{\i}cito (resolviendo por el m\'{e}todo de aproximaciones sucesivas): \[ y_{3}^{(iter+1)}=y_{2}-h\, \left( y_{2}^{(iter)}\right) ^{2},\qquad (iter=0,1,2,....) \]que nos conduce a que \[ y_{3}^{(1)}=0.8447239-0.1\, (0.7733681)^{2}=0.7849141 \] \[ y_{3}^{(2)}=0.8447239-0.1\, (0.7849141)^{2}=0.7831149 \] \[ y_{3}^{(3)}=0.8447239-0.1\, (0.7831149)^{2}=0.783397 \] \[ y_{3}^{(4)}=0.8447239-0.1\, (0.783397)^{2}=0.7833529 \] \[ y_{3}^{(5)}=0.8447239-0.1\, (0.7833529)^{2}=0.7833598 \] \[ y_{3}^{(6)}=0.8447239-0.1\, (0.7833598)^{2}=0.7833587 \] \[ y_{3}^{(7)}=0.8447239-0.1\, (0.7833587)^{2}=0.7833589 \]por lo que tomaremos como $y_{3}=0.7833589$. \es En sucesivos pasos de integraci\'{o}n temporal la estrategia predictora-correctora que acabamos de realizar nos conduce a que $% y_{4}=0.7300601,$ $y_{5}=0.6833618,$ ..... \es Esta estrategia puede extenderse a esquemas num\'{e}ricos muy diferentes, combinando un esquema expl\'{\i}cito de predicci\'{o}n y un esquema impl\'{\i}cito de correcci\'{o}n. Por ejemplo, si se deseara utilizar un $% \theta $ -m\'{e}todo con $\theta >0$ para la fase correctora y el m\'{e}todo de Euler expl\'{\i}cito para la fase predictora, el esquema de c\'{a}lculo ser\'{\i}a: \es \hspace{1cm}\underline{Fase predictora} (Euler expl\'{\i}cito): \[ y_{n+1}^{(0)}=y_{n}+h_{n}\, f(t_{n},y_{n}) \] \hspace{1cm}\underline{Fase correctora} ( $\theta $ -m\'{e}todo combinado con aproximaciones sucesivas): \[ y_{n+1}^{(iter+1)}=y_{n}+(1-\theta )\, h_n \, f(t_{n},y_{n})+\theta \, h_n \, f(t_{n+1},y_{n+1}^{(iter)})\;\;\;\;\;(iter=0,1,...) \] As\'{\i} por ejemplo, se deja como ejercicio propuesto verificar que la estrategia de c\'{a}lculo anterior con $\theta =0.5$ aplicada al problema de valor inicial: \[ \left\{ \begin{array}{lll} y^{\prime }(t) & =-y^{2}(t), & t>0 \\ y(0) & =1 & \end{array} \right. \] conduce a los valores $$ y_{1}=0.9087121,\qquad y_{2}=0.8327505,\qquad y_{3}=0.7685438, $$ $$ y_{4}=0.7135529, \qquad y_{5}=0.6659224, .... $$ \beobse De hecho algunos m\'{e}todos de c\'{a}lculo muy utilizados en la pr\'{a}ctica, y que posteriormente nos reencontraremos, podr\'{\i}an interpretarse como un esquema predictor corrector en los que se realizan ``pocas'' iteraciones del m\'{e}todo de aproximaciones sucesivas en la fase de correcci\'{o}n. Es el caso por ejemplo de combinar el m\'{e}todo de Euler expl\'{\i}cito en la fase de predicci\'{o}n y realizar una s\'{o}la iteraci\'{o}n en la fase correctora utilizando el m\'{e}todo de Crank-Nicholson, lo que nos conduce a: \[ y_{n+1}^{(0)}=y_{n}+h_{n}\, f(t_{n},y_{n}) \] \[ y_{n+1}=y_{n}+\frac{h_{n}}{2}\, (f(t_{n},y_{n})+f(t_{n+1},y_{n+1}^{(0)})) \] por lo que, resumiendo las dos etapas en una \'{u}nica expresi\'{o}n resulta: \[ y_{n+1}=y_{n}+\frac{h_{n}}{2}\, \left( f(t_{n},y_{n})+f(t_{n+1},y_{n}+h_{n}\, f(t_{n},y_{n}))\right) \] Este esquema de c\'{a}lculo recibe el nombre de {\bf m\'{e}todo de Heun} y lo vol\-ve\-re\-mos a deducir al examinar los m\'{e}todos de Runge-Kutta. \enobse \subsubsection{Cuarto ejemplo: Un problema regido por un sistema de ecuaciones diferenciales ordinarias} Consideraremos ahora un ejemplo que se puede encontrar en el libro de Hanna y Sandall\footnote{Hanna, O.T. y Sandall, O.C. (1995). ``Computational Methods in Chemical Engineering''. Ed. Prentice Hall International Editions.}) \es En la ingenier\'{\i}a en general, y en la ingenier\'{\i}a qu\'{\i}mica en particular, es muy frecuente toparse con problemas de valor inicial regidos por sistemas de ecuaciones diferenciales ordinarias. Como bot\'{o}n de muestra baste el siguiente ejemplo en el que se considera una reaci\'{o}n qu\'{\i}mica no lineal semejante a las que tienen lugar en un reactor qu\'{\i}mico durante la fase transitoria de una reacci\'on a volumen constante de la forma: \[ A+B\leftrightarrow C\rightarrow D+E \] donde $A,B,C,D$ y $E$ representan diferentes compuestos que interaccionan entre s\'{\i}. En una reacci\'{o}n qu\'{\i}mica como la planteada, la concentraci\'{o}n de la especie $A$, que denotaremos por $y_{1},$ y la de la especie $C$ que donotaremos por $y_{2}$ se relacionan entre s\'{\i} mediante: \[ \left\{ \begin{array}{rcl} \dis \frac{dy_{1}}{dt}& = &-k_{1}\, y_{1}\, (y_{1}-K)+ k_{2}\, y_{2} \\ [0.4cm] \dis \frac{dy_{2}}{dt}& = & -(k_{2}+k_{3})\, y_{2}+k_{1}\, y_{1}\, (y_{1}-K) \end{array} \right. \] donde $k_{1},k_{2}$ y $k_{3}$ son las constantes de reacci\'{o}n de las reacciones qu\'{\i}micas $A+B$ $\rightarrow C,$ $C\rightarrow A+B$ y $% C\rightarrow D+E$ respectivamente. Por otra parte $K$ es una constante que depende de la composici\'{o}n inicial de la mezcla que se deja reaccionar. Al sistema anterior debe acompa\~{n}\'{a}rsele de las condiciones iniciales $% y_{1}^{(0)}$ e $y_{2}^{(0)}.$ Si consideramos el caso en que $% k_{1}=k_{2}=k_{3}=1,$ $K=0,$ $y_{1}^{(0)}=1$ e $y_{2}^{(0)}=0$ el sistema resultante ser\'{a}: \[ \left\{ \begin{array}{lll} \mathbf{y}^{\prime }(t) & =\mathbf{f}(t,\mathbf{y}(t)) & t>0 \\ \mathbf{y}(0) & =\mathbf{y}^{(0)} & \end{array} \right. \] donde \[ \mathbf{y}(t)=\left\{ \begin{array}{l} y_{1}(t) \\ y_{2}(t) \end{array} \right\} ,\;\;\;\;\mathbf{y}^{\prime }(t)=\left\{ \begin{array}{l} y_{1}^{^{\prime }}(t) \\ y_{2}^{^{\prime }}(t) \end{array} \right\} ,\;\;\;\;\;\mathbf{y}^{(0)}=\left\{ \begin{array}{l} y_{1}^{(0)} \\ y_{2}^{(0)} \end{array} \right\} =\left\{ \begin{array}{l} 1 \\ 0 \end{array} \right\} \] y \[ \mathbf{f}(t,\mathbf{y}(t))=\left\{ \begin{array}{l} -y_{1}^{2}(t)+y_{2}(t) \\ -2\, y_{2}(t)+y_{1}^{2}(t) \end{array} \right\} \] Si tomamos $t_{0}=0,$ $t_{1}=0.1,$ $t_{2}=0.2,$ $t_{3}=0.3,$ .....La aplicaci\'{o}n del m\'{e}todo de Euler expl\'{\i}cito a este sistema nos conduce a que: \[ \mathbf{y}^{(1)}=\mathbf{y}^{(0)}+0.1\, \mathbf{f}(t_{0},\mathbf{y}% ^{(0)})=\left\{ \begin{array}{l} 1 \\ 0 \end{array} \right\} +0.1\, \left\{ \begin{array}{l} -1^{2}+0 \\ -2\, 0+1^{2} \end{array} \right\} =\left\{ \begin{array}{l} 0.9 \\ 0.1 \end{array} \right\} \] \[ \mathbf{y}^{(2)}=\mathbf{y}^{(1)}+0.1\, \mathbf{f}(t_{1},\mathbf{y}% ^{(1)})=\left\{ \begin{array}{l} 0.9 \\ 0.1 \end{array} \right\} +0.1\, \left\{ \begin{array}{l} -(0.9)^{2}+0.1 \\ -2\, 0.1+(0.9)^{2} \end{array} \right\} =\left\{ \begin{array}{l} 0.829 \\ 0.161 \end{array} \right\} \] \begin{eqnarray*} \mathbf{y}^{(3)} &=&\mathbf{y}^{(2)}+0.1\, \mathbf{f}(t_{2},\mathbf{y}% ^{(2)})= \\ &=&\left\{ \begin{array}{l} 0.829 \\ 0.161 \end{array} \right\} +0.1\, \left\{ \begin{array}{l} -(0.829)^{2}+0.161 \\ -2\, 0.161+(0.829)^{2} \end{array} \right\} =\left\{ \begin{array}{l} 0.7763759 \\ 0.1975241 \end{array} \right\} \end{eqnarray*} \begin{eqnarray*} \mathbf{y}^{(4)} =\mathbf{y}^{(3)}+0.1\, \mathbf{f}(t_{3},\mathbf{y}% ^{(3)})= \\ \left\{ \begin{array}{l} 0.776375 \\ 0.197524 \end{array} \right\} +0.1\, \left\{ \begin{array}{l} -(0.776375)^{2}+0.197524 \\ -2\, 0.197524++(0.776375)^{2} \end{array} \right\} =\left\{ \begin{array}{l} 0.73585235 \\ 0.21829523 \end{array} \right\} \end{eqnarray*} Para posteriores instantes de c\'{a}lculo se van obteniendo los vectores de concentraci\'{o}n: \[ \mathbf{y}^{(5)}=\left\{ \begin{array}{l} 0.7035340106 \\ 0.2287840561 \end{array} \right\} \] \[ \mathbf{y}^{(6)}=\left\{ \begin{array}{l} 0.6769164058 \\ 0.2325232553 \end{array} \right\} \] \[ \mathbf{y}^{(7)}=\left\{ \begin{array}{l} 0.6543471493 \\ 0.2318401863 \end{array} \right\} \] \[ \mathbf{y}^{(8)}=\left\{ \begin{array}{l} 0.6347141488 \\ 0.2282891682 \end{array} \right\} \] \[ \mathbf{y}^{(9)}=\left\{ \begin{array}{l} 0.6172568606 \\ 0.2229175396 \end{array} \right\} \] \[ \mathbf{y}^{(10)}=\left\{ \begin{array}{l} 0.6014480114 \\ 0.2164346349 \end{array} \right\} \] Si se desease aplicar un esquema impl\'{\i}cito, en cada paso deber\'{a} resolverse un sistema de 2 ecuaciones no lineales. Una alternativa a ello puede ser el uso del m\'{e}todo de Heun que present\'{a}bamos en la observaci\'{o}n realizada al ejemplo anterior, que en este caso quedar\'{\i}a de la forma: \[ \mathbf{y}^{(n+1)}=\mathbf{y}^{(n)}+\frac{h_{n}}{2}\, \left( \mathbf{f}% (t_{n},\mathbf{y}^{(n)})+\mathbf{f}(t_{n+1},\mathbf{y}^{(n)}+h_{n}\, \mathbf{f}(t_{n},\mathbf{y}^{(n)}))\right) \] y que, operacionalmente, estructuraremos de la forma siguiente: \begin{eqnarray*} \mathbf{W}^{(n,1)} &=&\mathbf{f}(t_{n},\mathbf{y}^{(n)}) \\ \mathbf{W}^{(n,2)} &=&\mathbf{f}(t_{n+1},\mathbf{y}^{(n)}+h_{n}\, \mathbf{% W}^{(n,1)}) \\ {\mathbf y}^{(n+1)} &=&{\mathbf y}^{(n)}+ \dis \frac{h_{n}}{2}\, \left( \mathbf{W}^{(n,1)}+\mathbf{W }^{(n,2)}\right) \end{eqnarray*} Todo ello (con la misma longitud de paso de integraci\'{o}n) nos conduce en el caso del sistema considerado a que: Estimaci\'{o}n de la soluci\'{o}n en $t=0.1:$ \[ \mathbf{W}^{(0,1)}=\mathbf{f}(t_{0},\mathbf{y}^{(0)})=\left\{ \begin{array}{l} -(1)^{2}+0 \\ -2\, 0+(1)^{2} \end{array} \right\} =\left\{ \begin{array}{l} -1 \\ 1 \end{array} \right\} \] \[ \mathbf{W}^{(0,2)}=\mathbf{f}(t_{1},\mathbf{y}^{(0)}+h_{n}\, \mathbf{W}% ^{(0,1)})=\left\{ \begin{array}{l} -(1+0.1\, (-1))^{2}+(0+0.1\, (1)) \\ -2\, (0+0.1\, (1))+(1+0.1\, (-1))^{2} \end{array} \right\} = \] \[ =\left\{ \begin{array}{l} -(0.9)^{2}+0.1 \\ -0.2+(0.9)^{2} \end{array} \right\} =\left\{ \begin{array}{l} -0.71 \\ 0.61 \end{array} \right\} \] \[ \mathbf{y}^{(1)}=\mathbf{y}^{(0)}+0.05\, (\mathbf{W}^{(0,1)}+\mathbf{W}% ^{(0,2)})=\left\{ \begin{array}{l} 0.914500000 \\ 0.080500000 \end{array} \right\} \] Estimaci\'{o}n de la soluci\'{o}n en $t=0.2:$ \[ \mathbf{W}^{(1,1)}=\mathbf{f}(t_{1},\mathbf{y}^{(1)})=\left\{ \begin{array}{l} -(0.9145)^{2}+0.0805 \\ -2\, 0.0805+(0.9145)^{2} \end{array} \right\} =\left\{ \begin{array}{l} -0.75581025 \\ 0.67531025 \end{array} \right\} \] \[ \mathbf{W}^{(1,2)}=\mathbf{f}(t_{2},\mathbf{y}^{(1)}+h_{n}\, \mathbf{W}% ^{(1,1)})= \] \[ =\left\{ \begin{array}{l} -(0.9145+0.1\, (-.7558102500))^{2}+(0.0805+0.1\, (0.67531025)) \\ -2\, (0.0805+0.1\, (0.67531025))+(0.9145+0.1\, (-.7558102500)^{2}) \end{array} \right\} = \] \[ =\left\{ \begin{array}{l} -(.838918975)^{2}+0.148031025 \\ -2\, 0.148031025+(.838918975)^{2} \end{array} \right\} =\left\{ \begin{array}{l} -0.5557540216 \\ 0.4077229966 \end{array} \right\} \] \[ y^{(2)}=\mathbf{y}^{(1)}+0.05\, (\mathbf{W}^{(1,1)}+\mathbf{W}% ^{(1,2)})=\left\{ \begin{array}{l} 0.8489217864 \\ 0.1346516624 \end{array} \right\} \] Estimaci\'{o}n de la soluci\'{o}n en $t=0.3:$ \[ \mathbf{W}^{(2,1)}=\mathbf{f}(t_{2},\mathbf{y}^{(2)})=\left\{ \begin{array}{l} -(0.8489217864)^{2}+0.1346516624 \\ -2\, 0.1346516624+(0.8489217864)^{2} \end{array} \right\} = \] \[ =\left\{ \begin{array}{l} -0.5860165370 \\ 0.4513648746 \end{array} \right\} \] \[ \mathbf{W}^{(2,2)}=\mathbf{f}(t_{3},\mathbf{y}^{(2)}+h_{n}\, \mathbf{W}% ^{(2,1)})= \] \[ =\left\{ \begin{array}{l} -(0.84892+0.1(-0.58601))^{2}+(0.18331+0.1 (0.451364)) \\ -2(0.18331+0.1(0.45136))+(0.84892+0.1(-0.58601)^{2}) \end{array} \right\} = \] \[ =\left\{ \begin{array}{l} -(0.7903201327)^{2}+0.1797881499 \\ -2\, 0.1797881499+(0.7903201327)^{2} \end{array} \right\} =\left\{ \begin{array}{l} -0.4448177623 \\ 0.2650296124 \end{array} \right\} \] \[ y^{(3)}=\mathbf{y}^{(2)}+0.05\, (\mathbf{W}^{(2,1)}+\mathbf{W}% ^{(2,2)})=\left\{ \begin{array}{l} 0.7973800715 \\ 0.1704713868 \end{array} \right\} \] Para posteriores instantes de c\'{a}lculo se van obteniendo las soluciones: \[ \mathbf{y}^{(4)}=\left\{ \begin{array}{l} 0.7559223581 \\ 0.1934076005 \end{array} \right\} \] \[ \mathbf{y}^{(5)}=\left\{ \begin{array}{l} 0.7218302976 \\ 0.2072358839 \end{array} \right\} \] \[ \mathbf{y}^{(6)}=\left\{ \begin{array}{l} 0.6931987138 \\ 0.2146110432 \end{array} \right\} \] \[ \mathbf{y}^{(7)}=\left\{ \begin{array}{l} 0.6686718377 \\ 0.2174203031 \end{array} \right\} \] \[ \mathbf{y}^{(8)}=\left\{ \begin{array}{l} 0.6472726418 \\ 0.2170160616 \end{array} \right\} \] \[ \mathbf{y}^{(9)}=\left\{ \begin{array}{l} 0.6282894584 \\ 0.2143729901 \end{array} \right\} \] \[ \mathbf{y}^{(10)}=\left\{ \begin{array}{l} 0.6111990088 \\ 0.2101961324 \end{array} \right\} \] En la figura siguiente se representa la evoluci\'{o}n de las concentraciones calculadas mediante este esquema de Heun hasta el tiempo $t=12$ con paso $% h=0.1.$ %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%5 \begin{figure} \centering \includegraphics[width=0.6\textwidth]{fig513.eps} %\caption{} %\label{figura13} \end{figure} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% Estos mismos esquemas pueden utilizarse para evaluar la soluci\'{o}n con distintos pasos de tiempo. Si se comparan las soluciones obtenidas con los esquemas anteriores para diferentes pasos de tiempo con el valor de la soluci\'{o}n exacta de $y_{1}(t)$ en el instante $t=0.8$ (tomando $% y(0.8)=0.646234$ de la re\-fe\-ren\-cia Hanna y Sandall\footnote{Hanna, O.T. y Sandall, O.C. (1995). ``Computational Methods in Chemical Engineering''. Ed. Prentice Hall International Editions.}) se obtendr\'{\i}a una tabla como la siguiente: \[ \begin{array}{lll} \underline{h} & \text{\underline{Euler\ $\exp $l\'{\i}cito}} & \text{% \underline{Heun}} \\ [0.5cm] 0.4 & 0.030234 & -0.040291 \\ 0.2 & 0.023161 & -0.005432 \\ 0.1 & 0.011520 & -0.001039 \\ 0.05 & 0.005704 & -0.000231 \\ 0.025 & 0.002835 & -0.000055 \\ 0.0125 & 0.001413 & -0.000013 \\ 0.00625 & 0.000705 & -0.000003 \end{array} \] La evoluci\'{o}n de los errores de cada m\'{e}todo con el tama\~{n}o de paso presentada en la tabla anterior se recoge en la gr\'{a}fica siguiente (correspondiendo los valores positivos al m\'{e}todo de Euler expl\'{\i}cito y los negativos al de Heun): %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%5 \begin{figure} \centering \includegraphics[width=0.6\textwidth]{fig514.eps} %\caption{} %\label{figura14} \end{figure} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% En la evoluci\'{o}n de los errores anterior pueden realizarse algunas consideraciones interesantes. En ambos m\'{e}todos el error disminuye a medida que lo hace el tama\~{n}o de paso de integraci\'{o}n utilizado. Pero en el caso del m\'{e}todo de Heun, aun comenzando con un error mayor en valor absoluto para $h=0.4$, el decrecimiento del error es m\'{a}s r\'{a}pido. En efecto la reducci\'{o}n del error en el m\'{e}todo de Euler es ``grosso modo'' lineal en el sentido de que reducir el tama\~{n}o de paso de un valor $h$ a la mitad $h/2$ se traduce en una reducci\'{o}n del error a (un orden de) la mitad. En el m\'{e}todo de Heun el error no se reduce linealmente sino que una reducci\'{o}n del paso a $\frac{1}{2}$ del valor que ten\'{\i}a se traduce en una reducci\'{o}n del orden de $\frac{1}{4}=\left( \frac{1}{2}\right) ^{2}$ (o mayor) del error que se comet\'{\i}a. Es una reducci\'{o}n del error ``cuadr\'{a}tica''. Esta forma de depender el error del tama\~{n}o del paso de integraci\'{o}n es diferente en los distintos m\'{e}todos num\'{e}ricos que puedan considerarse y debe ser analizada con mayor detalle y de forma m\'{a}s rigurosa como se hace en el subapartado siguiente. \subsection{An\'{a}lisis del m\'{e}todo de Euler.}\label{ame} Consideremos el esquema de Euler expl\'{\i}cito: \begin{eqnarray*} &&y_{0}\;dado \\ y_{n+1} &=&y_{n}+h_{n}\, f(t_{n},y_{n})\;\;\;\;\;\;(n=0,1,2,...,N-1) \end{eqnarray*} aplicado al problema de valor inicial: \[ (P.V.I.)\left\{ \begin{array}{lll} y^{\prime }(t) & =f(t,y(t)) & t\in [t_{0},t_{N}] \\ y(0) & =y_{0} & \end{array} \right\} \] siendo $t_{0}0) \] \end{lema} \underline{Demostraci\'{o}n:} \es Si $A=0$ la hip\'{o}tesis supuesta se reduce a que: \[ a_{n}\leq a_{n-1}+B\leq a_{n-2}+2\, B\leq .....\leq a_{0}+n\, B \] por lo que en este caso el lema es evidente. Si suponemos que $A>0$, considerando el desarrollo en serie de la funci\'{o}n exponencial: \[ e^{A}=1+A+\frac{A^{2}}{2}+\frac{A^{3}}{3!}+..... \] se deduce que \[ A-e^{A}=-1-\frac{A^{2}}{2}-\frac{A^{3}}{3!}-....\leq -1\Rightarrow A\leq e^{A}-1 \] Por tanto, y habida cuenta de la hip\'{o}tesis realizada sobre los elementos de la sucesi\'{o}n $\{a_{n}\}$ se tiene que: \[ a_{1}\leq (1+A)\, a_{0}+B\leq e^{A}\, a_{0}+B\leq e^{A}\, a_{0}+% \frac{e^{A}-1}{A}\, B \] Luego el lema es cierto, al menos, para el caso en que $n=1.$ Procedamos entonces por inducci\'{o}n esto es supongamos que el lema es cierto para un valor dado de $n$ y demostremos que entonces tambi\'{e}n es cierto para el valor $n+1.$ De esta forma si admitimos que se verifica: \[ a_{n}\leq a_{0}\, e^{n\, A}+\frac{e^{n\, A}-1}{A}\, B \] se tendr\'{a} que \[ a_{n+1}\leq (1+A)\, a_{n}+B\leq (1+A)\, \left( a_{0}\, e^{n\, A}+% \frac{e^{n\, A}-1}{A}\, B\right) +B\leq \] \[ \leq e^{A}\, \left( a_{0}\, e^{n\, A}+\frac{e^{n\, A}-1}{A}\, B\right) +B\leq \] \[ \leq e^{(n+1)\, A}\, a_{0}+\frac{e^{(n+1)\, A}}{A}\, B+\left( 1-% \frac{e^{A}}{A}\right) \, B= \] \[ =e^{(n+1)\, A}\, a_{0}+\frac{e^{(n+1)\, A}}{A}\, B+\left( \frac{% A-e^{A}}{A}\right) \, B\leq \] \[ \leq e^{(n+1)\, A}\, a_{0}+\frac{e^{(n+1)\, A}}{A}\, B-\frac{1}{A% }\, B= \] \[ =e^{(n+1)\, A}\, a_{0}+\frac{e^{(n+1)\, A}-1}{A}\, B \] \hspace{10cm}c.q.d. Procedamos ya a presentar el teorema que acota el error del m\'{e}todo de Euler expl\'{\i}cito. \beteor Si la funci\'{o}n $f(t,y)$ que interviene en la definici\'{o}n del problema de valor inicial $(P.V.I.)$ es una funci\'{o}n de clase $% C^{1}([t_{0},t_{N}],R)$ y es lipschitciana respecto a su segunda variable, es decir: \[ \exists L>0\;\;/\;\;\left| f(t,y)-f(t,z)\right| \leq L.\left| y-z\right| \;\;\;\;\forall t\in [t_{0},t_{N}],\;\;\forall y,z\in R \] entonces el m\'{e}todo de Euler expl\'{\i}cito inicializado con el valor $% y_{0}=y(t_{0})$ es convergente y adem\'{a}s se verifica que: \[ e_{n}\leq C(h)h\;\;\;\;\;\;\;\;(n=0,1,...,N) \] donde $C(h)$ es una constante que s\'{o}lo depende del valor de $h$ y que tiende a $0$ cuando $h$ tiende hacia $0.$ \enteor \underline{Demostraci\'{o}n:} Por ser $f$ una funci\'{o}n de clase $C^{1}$ la funci\'{o}n $y(t)$ ser\'{a} de clase $C^{2}$ en el intervalo en el que est\'{a} definida. Por ello es admisible el desarrollo en serie de Taylor: \[ y(t_{n+1})=y(t_{n})+h_{n}\, y^{\prime }(t_{n})+\frac{h_{n}}{2}\, y^{\prime \prime }(\xi _{n})= \] \[ =y(t_{n})+h_{n}\, f(t_{n},y(t_{n}))+\frac{h_{n}}{2}\, y^{\prime \prime }(\xi _{n})\;\;\;,\;\xi _{n}\in [t_{n},t_{n+1}] \] Por otra parte, al aplicar el m\'{e}todo de Euler expl\'{\i}cito se tiene que: \[ y_{n+1}=y_{n}+h_{n}\, f(t_{n},y_{n}) \] Combinando ambas expresiones, y teniendo en cuenta que $f$ es lipschitciana, se tiene: \[ y(t_{n+1})-y_{n+1}=y(t_{n})-y_{n}+h_{n}\, \left( f(t_{n},y(t_{n}))-f(t_{n},y_{n})\right) +\frac{h_{n}^{2}}{2}\, y^{\prime \prime }(\xi _{n})\Rightarrow \] \[ \Rightarrow e_{n+1}=e_{n}+h_{n}\, L\, (y(t_{n})-y_{n})+\frac{h_{n}^{2}% }{2}\, y^{\prime \prime }(\xi _{n})\Rightarrow \] \[ \Rightarrow e_{n+1}=(1+h_{n}\, L)\, e_{n}+\frac{h_{n}^{2}}{2}\, y^{\prime \prime }(\xi _{n})\Rightarrow \] \[ \Rightarrow \left| e_{n+1}\right| \leq (1+h\, L)\, \left| e_{n}\right| +h^{2}\, B \] donde $h={Sup}_{0\leq n\leq N-1} \left| t_{n+1}-t_{n}\right| $ y $B=% \frac{1}{2}\, {Sup}_{\xi \in \left[ t_{0},t_{N}\right] }\left| y^{\prime \prime }(\xi )\right| $. Por verificarse esta relaci\'{o}n entre los distintos elementos de la sucesi\'{o}n de valores $\{|e_{n}|\}_{n=0}^{N}$ se tendr\'{a} en funci\'{o}n del lema anteriormente demostrado que: \[ \left| e_{n}\right| \leq e^{n\, L\, h}\, \left| e_{0}\right| +\frac{% e^{n\, L\, h}-1}{L\, h}\, h^{2}\, B=e^{n\, L\, h}\, \left| e_{0}\right| +\frac{e^{n\, L\, h}-1}{L}\, h\, B \] Por tanto, si se tiene en cuenta que $e_{0}=y(t_{0})-y_{0}=0$ resultar\'{a} que: \[ \left| e_{n}\right| \leq C(h)\, h \] donde se ha denotado por $C(h)$ a la expresi\'{o}n: \[ C(h)=\frac{e^{n\, L\, h}-1}{L}\, B \] que, efectivamente, verifica: \[ {\lim }_{h\rightarrow 0}C(h)=B\, {% \lim }_{h\rightarrow 0} -\frac{e^{n\, L\, h}-1}{L}=0 \] \hspace{10cm}c.q.d. El teorema anterior demuestra el comportamiento ``lineal'' que ten\'{\i}a el error en el m\'{e}todo de Euler expl\'{\i}cito y que se puso de manifiesto en el cuarto de los ejemplos considerado en el subapartado anterior. Una consecuencia de lo anterior es que: \[ {\max }_{0\leq n\leq N}\left| e_{n}\right| \leq \frac{e^{n\, L\, h}-1}{L}\, B\, h\leq \frac{e^{L\, (t_{N}-t_{0})}-1}{L}\, B\, h=M\, h \] lo que pone de manifiesto el car\'{a}cter lineal de la cota de error (por lo que en ocasiones se utiliza esta expresi\'{o}n como cota de error del m\'{e}todo de Euler). \beobse Un tratamiento similar al realizado para el m\'{e}todo de Euler expl\'{\i}cito puede realizarse para el m\'{e}todo de Euler impl\'{\i}cito y para los $\theta $-m\'{e}todos. Dejamos al lector interesado la tarea de demostrar que, en general, estos m\'{e}todos tienen una convergencia lineal salvo en el caso en que $\theta =0.5$ en el que, suponiendo que la soluci\'{o}n exacta $y(t)$ es de clase $C^{3}(I)$ se puede demostrar que la convergencia es cuadr\'{a}tica, es decir que el error del m\'{e}todo puede acotarse mediante $|e_{n}|\leq C(h)h^{2}$ donde $C(h)$ tiende hacia $0$ cuando lo hace $h$. \enobse \beobse En el estudio del error que se ha realizado con los teoremas anteriores nos ha faltado un ``invitado'' importante: el error de redondeo. Este e\-rror ser\'{a} el culpable en la pr\'{a}ctica de que los valores de $y_{n}$ obtenidos por el m\'{e}todo se conviertan realmente en $\widetilde{y}_{n}$ al no poderse almacenar, trabajando con un n\'{u}mero finito de decimales, los n\'{u}meros de forma exacta. De hecho, en el \'{u}ltimo teorema demostrado se supon\'{\i}a como hip\'{o}tesis que el m\'{e}todo de Euler se inicializaba con el valor $y_{0}=y(t_{0}).$ Y ni esto ser\'{a} posible en numerosas aplicaciones (t\'{o}mese por ejemplo $y(t_{0})=\sqrt{2})$. Ello har\'{a} que el m\'{e}todo se inicialice con $\widetilde{y}% _{0}=y_{0}+\delta _{0}$ dependiendo el valor de $\delta _{0}$ de la precisi\'{o}n que tenga la m\'{a}quina con que se trabaje (del n\'{u}mero de decimales con los que permita trabajar). Con ello, la primera etapa del m\'{e}todo de Euler consistir\'{a} en: \[ \widetilde{y}_{1}=y_{0}+h_{n}\, f(t_{0},y_{0})+h_{n}\, \varepsilon _{0}+\delta _{0} \] donde $\varepsilon _{0}=f(t_{0},y_{0}+\delta _{0})-f(t_{0},y_{0}).$ De esta forma en una etapa gen\'{e}rica del m\'{e}todo se estar\'{a} calculando, en lugar de $y_{n+1}$ el valor: \[ \widetilde{y}_{n+1}=y_{n}+h_{n}\, f(t_{n},y_{n})+h_{n}\, \varepsilon _{n}+\delta _{n} \] Admitiendo que $\left| \delta _{n}\right| \leq \delta $ y que $\left| \varepsilon _{n}\right| \leq \varepsilon $ para todo $h_{n}\leq h^{*},$ la acotaci\'{o}n de error del teorema anterior debe modificarse resultando: \[ \max_{0\leq n\leq N}\left| y(t_{n})-\widetilde{y}% _{n}\right| \leq \frac{e^{L\, (t_{N}-t_{0})}-1}{L}\, \left( B.h+\varepsilon +\frac{\delta }{h}\right) \] La cota anterior pone de manifiesto el hecho de que disminuciones excesivas del tama\~{n}o del paso de integraci\'{o}n pueden ser ``contraproducentes'' en el sentido de que el error realmente cometido con el m\'{e}todo aumenta para disminuciones del paso de integraci\'{o}n. \enobse \subsection{El control del tama\~{n}o del paso de integraci\'{o}n} El an\'{a}lisis del m\'{e}todo de Euler realizado en el apartado anterior parece indicarnos que cuanto m\'{a}s se reduzca el paso de integraci\'{o}n (al menos hasta un l\'{\i}mite inferior $h_{*}$ determinado por la precisi\'{o}n de la m\'{a}quina con la que se trabaje) m\'{a}s preciso ser\'{a} el m\'{e}todo. Una conclusi\'{o}n similar podr\'{\i}a obtenerse para todos los m\'{e}todos hasta ahora planteados. Pero, obviamente, la reducci\'{o}n del paso no puede ser arbitrariamente peque\~{n}a pues impedir\'{\i}a en la pr\'{a}ctica resolver problemas planteados en intervalos ``grandes''. Adem\'{a}s, debe advertirse que en la acotaci\'{o}n del error realizada se ha sido bastante ``grosero'' tomando, por ejemplo, como constante $B$ en la acotaci\'{o}n la mitad del mayor valor de $y^{''}(t)$ en todo el intervalo de trabajo. Es por ello que, en la pr\'{a}ctica, los programas que recogen el m\'{e}todo de Euler no trabajan con el simple algoritmo que hasta ahora hemos utilizado sino que adem\'{a}s ajustan el tama\~{n}o del paso de integraci\'{o}n permitiendo que en dominios en los que la soluci\'{o}n es relativamente ``suave'' se tomen pasos de integraci\'{o}n ``grandes'' en tanto que en zonas en las que la soluci\'{o}n presente cambios de pendiente bruscos ajustan el tama\~{n}o del paso de integraci\'{o}n a peque\~{n}os valores. Una de las t\'{e}cnicas que permite realizar este ajuste de paso se basa en t\'{e}cnicas de ex\-tra\-po\-la\-ci\'{o}n y concretamente en la denominada \textbf{% extrapolaci\'{o}n de Richardson}. Veamos en qu\'{e} consiste su aplicaci\'{o}n al m\'{e}todo de Euler. En primer lugar los tama\~{n}os de paso de integraci\'{o}n a utilizar en cada etapa se toman de la forma: \[ h_{n}=\mu (t_{n})\, h^{*} \] donde $h^{*}$ es un tama\~{n}o de paso de integraci\'{o}n m\'{a}ximo y $\mu (t)$ es una funci\'{o}n continua a trozos que toma valores positivos y tales que \[ 0<\mu _{*}<\mu (t)\leq 1\;\;\;\;\;\;\forall t\in \left[ t_{0},t_{N}\right] \] Con ello la t\'{e}cnica de control del tama\~{n}o de paso se basa en el siguiente teorema: \beteor Suponiendo que: a) el problema de valor inicial: \[ \left\{ \begin{array}{lll} y^{\prime }(t) & =f(t,y(t)), & t\in \left[ t_{0},t_{N}\right] \\ y(t_{0}) & =y_{0} & \end{array} \right. \] admite una soluci\'{o}n $y(t)$, b) $f$ es una funci\'{o}n de clase $C^{2}(]t_{0},t_{N}[\times \R)$ lipschitciana respecto a su segunda variable, y c) el m\'{e}todo de Euler se inicializa para cada tama\~{n}o de paso $h$ con un valor $y_{0,h}$ satisfaci\'{e}ndose: \[ \exists \alpha \in \R \,/\quad y(t_{0})-y_{0,h}=\alpha \, h+O(h^{2}) \] entonces se verifica que: \[ y(t_{n})-y_{n,h}=h\, g(t_{n})+O(h^{2}) \] donde $y_{n,h}$ es la soluci\'{o}n aproximada obtenida mediante el m\'{e}todo de Euler con un tama\~{n}o de paso $h,$ y $g(t)$ es soluci\'{o}n del problema de valor inicial: \[ \left\{ \begin{array}{lll} \dis g^{\prime }(t) & =g(t)\, \dis \frac{\partial f}{\partial y}(t,y(y))+\frac{1}{2}% \, \mu (t)\, y^{\prime \prime }(t), & t\in \left[ t_{0},t_{N}\right] \\ g(0) & =\alpha & \end{array} \right. \] \enteor \underline{Demostraci\'{o}n:} \es Cons\'{u}ltese Crouzeix y Mignot\footnote{Crouzeix, M., Mignot A.L. (1984) ``Analyse num\'{e}rique des \'{e}quations diff\'{e}rentielles'', Ed. Masson.}. \es Supongamos entonces que con un tama\~{n}o de paso $h$ se ha obtenido una aproximaci\'{o}n $y_{n,h}$ del valor de la soluci\'{o}n en el instante de c\'{a}lculo $t_{n}.$ Seg\'{u}n el teorema precedente se tendr\'{a} que: \[ y(t_{n})=y_{n,h}+h\, g(t_{n})+O(h^{2}) \] Si en el mismo punto $t_{n}$ se calculase la aproximaci\'{o}n mediante el m\'{e}todo de Euler utilizando un tama\~{n}o de paso de longitud $q\, h$ se tendr\'{\i}a que: \[ y(t_{n})=y_{m,q\, h}+q\, h\, g(t_{n})+O(h^{2}) \] Combinando las dos expresiones anteriores se obtiene que: \[ \frac{q\, y_{n,h}-y_{m,q\, h}}{q-1}=y(t_{n})+O(h^{2}) \] y que \[ y_{n,h}-y(t_{n})=\frac{y_{m,q\, h}-y_{n,h}}{q-1}+O(h^{2}) \] La \'{u}ltima de las expresiones obtenidas nos permite considerar que: \[ \frac{y_{m,q\, h}-y_{n,h}}{q-1} \] es una estimaci\'{o}n del error cometido al actuar con paso $h.$ Con estas consideraciones una t\'{e}cnica para controlar autom\'{a}ticamente el paso de c\'{a}lculo consiste en calcular el valor $y_{n+1,h}$ a partir de $y_{n}$ (es decir con un tama\~{n}o de paso $h_{n})$ y calcular $% y_{n+1,h^{\prime }}$ a partir de $y_{n-1}$ (es decir con tama\~{n}o de paso $% h^{\prime }=h_{n-1}+h_{n})$ denotando por $q$ al valor: \[ q=\frac{h_{n}+h_{n+1}}{h_{n}} \] Si, siendo $\varepsilon $ una tolerancia de error admisible y dada por el usuario, se verificase que: \[ \left| \frac{y_{n+1,h^{\prime }}-y_{n+1,h}}{q-1}\right| \leq \varepsilon \] el error cometido entre la aproximaci\'{o}n obtenida con paso $h$ y la soluci\'{o}n exacta es un error aceptable y podr\'{\i}a intentar operarse con un tama\~{n}o de paso $q\, h_{n}$ para etapas posteriores del m\'{e}todo. Adem\'{a}s el valor aproximado puede mejorarse mediante: \[ \widehat{y}_{n+1}=y_{n+1,h}-\frac{y_{n+1,h^{\prime }}-y_{n+1,h}}{q-1}=\frac{% q\, y_{n+1,h}-y_{n+1,h^{\prime }}}{q-1} \] Si por el contrario resultara que: \[ \left| \frac{y_{n+1,h^{\prime }}-y_{n+1,h}}{q-1}\right| >\varepsilon \] entonces el tama\~{n}o de paso $h_{n}$ no nos garantiza un error aceptable en la estimaci\'{o}n de la soluci\'{o}n aproximada obtenida por el m\'{e}todo de Euler. Ello aconsejar\'{a} reducir el tama\~{n}o del paso utilizado (por ejemplo a la mitad) pasando a denominarse $t_{n+1}$ al punto $% t_{n}+\frac{h_{n}}{2}$ considerando entonces que $h_{n}$ toma un valor igual a la mitad que el que ten\'{\i}a. Con este nuevo tama\~{n}o de paso puede volver a repetirse el mismo proceso. \section{Estudio de un m\'{e}todo general de pasos libres} Consideremos nuevamente un problema de valor inicial que formularemos a\-bre\-via\-da\-mente por: \[ (P.V.I.)\left\{ \begin{array}{lll} y^{\prime }(t) & =f(t,y(t)) & t\in [t_{0},t_{N}] \\ y(t_{0}) & =y_{0} & \end{array} \right\} \] y consideremos los puntos de c\'{a}lculo: \[ t_{0}$ $1$: \[ a_{n}\leq e^{A\, (t_{n}-t_{0})}\, a_{0}+\sum\limits_{i=0}^{n-1}e^{A\, (t_{n}-t_{t+1})}\, b_{i+1} \] por lo que, utilizando la hip\'{o}tesis realizada sobre las sucesiones, se tiene que: \[ a_{n+1}\leq (1+A\, h_{n})\, a_{n}+b_{n+1}\leq \] \[ \leq (1+A\, h_{n})\, \left( e^{A\, (t_{n}-t_{0})}\, a_{0}+\sum\limits_{i=0}^{n-1}e^{A\, (t_{n}-t_{t+1})}\, b_{i+1}\right) +b_{n+1}= \] \[ =(1+A\, h_{n})\, e^{A\, (t_{n}-t_{0})}\, a_{0}+(1+A\, h_{n})\, \sum\limits_{i=0}^{n-1}\left( e^{A\, (t_{n}-t_{t+1})}\, b_{i+1}\right) +b_{n+1}\leq \] \[ \leq e^{A\, (t_{n+1}-t_{0})}\, a_{0}+e^{A\, (t_{n+1}-t_{n})}\, \sum\limits_{i=0}^{n-1}\left( e^{A\, (t_{n}-t_{t+1})}\, b_{i+1}\right) +b_{n+1}= \] \[ =e^{A\, (t_{n+1}-t_{0})}\, a_{0}+\sum\limits_{i=0}^{n-1}\left( e^{A\, (t_{n+1}-t_{t+1})}\, b_{i+1}\right) +e^{A\, (t_{n+1}-t_{n+1})}\, b_{n+1}= \] \[ =e^{A\, (t_{n+1}-t_{0})}\, a_{0}+\sum\limits_{i=0}^{n}\left( e^{A\, (t_{n+1}-t_{t+1})}\, b_{i+1}\right) \] \hspace{10cm}c.q.d. Con ayuda del lema previo podemos abordar ya el estudio de las condiciones que garantizan la estabilidad del m\'{e}todo general de un paso. Ello lo hacemos en el siguiente teorema: \beteor\label{teolip} Una condici\'{o}n suficiente para que el m\'{e}todo dado por la expresi\'{o}n (\ref{euex}) sea estable es que $g$ sea lipschitciana respecto a su segunda variable, es decir que: \[ \exists L\in \R/\left| g(t,y,h)-g(t,z,h)\right| \leq L\, \left| y-z\right| \;\forall t\in \left[ t_{0},t_{N}\right] ,\forall h\in ]0,H[,\forall y,z\in \R \] Adem\'{a}s en dicho caso, la constante $M$ que interviene en la definici\'{o}n de estabilidad dada en la definici\'{o}n (\ref{trecin}) est\'{a} dada por: \[ M=e^{L\, (t_{N}-t_{0})} \] \enteor \underline{Demostraci\'{o}n:} \es Supongamos que $\{y_{n}\}_{0\leq n\leq N},$ $\{z_{n}\}_{0\leq n\leq N},$ y $% \{E_{n}\}_{1\leq n\leq N}$ son tres sucesiones verificando: \[ y_{n+1}=y_{n}+h_{n}\, g(t_{n},y_{n},h_{n}) \] \[ z_{n+1}=z_{n}+h_{n}\, g(t_{n},z_{n},h_{n})+E_{n+1} \] Se tiene entonces que: \[ \left| y_{n+1}-z_{n+1}\right| \leq \left| y_{n}-z_{n}\right| +h_{n}\, \left| g(t_{n},y_{n},h_{n})-g(t_{n},z_{n},h_{n})\right| +\left| E_{n+1}\right| \] y por ser $g$ lipschitciana respecto a su segunda variable: \[ \left| y_{n+1}-z_{n+1}\right| \leq (1+L\, h_{n})\, \left| y_{n}-z_{n}\right| +\left| E_{n+1}\right| \] por lo que aplicando el lema precedente con $A$ $=L,$ $a_{n}=\left| y_{n}-z_{n}\right| $ y $b_{n}=\left| E_{n}\right| $ se deduce que: \[ \left| y_{n+1}-z_{n+1}\right| \leq e^{L\, (t_{n+1}-t_{0})}\, \left| y_{0}-z_{0}\right| +\sum\limits_{i=0}^{n}e^{L\, (t_{n+1}-t_{i+1})}\, \left| E_{n+1}\right| \;\;(0\leq n\leq N-1) \] De la expresi\'{o}n anterior se obtiene: \[ \left| y_{n+1}-z_{n+1}\right| \leq e^{L\, (t_{n+1}-t_{0})}\, \left| y_{0}-z_{0}\right| +e^{L\, (t_{N+1}-t_{0})}\, \sum\limits_{i=0}^{n}\left| E_{n+1}\right| \;\;(0\leq n\leq N-1)\Rightarrow \] \[ \left| y_{n+1}-z_{n+1}\right| \leq e^{L\, (t_{n+1}-t_{0})}\left( \, \left| y_{0}-z_{0}\right| +\sum\limits_{i=0}^{n}\left| E_{n+1}\right| \right) \;(0\leq n\leq N-1)\Rightarrow \] \[ {Sup}_{0\leq n\leq N}\left| y_{n}-z_{n}\right| \leq e^{L\, (t_{N}-t_{0})}\left( \, \left| y_{0}-z_{0}\right| +\sum\limits_{i=0}^{n}\left| E_{n+1}\right| \right) \] \hspace{10cm}c.q.d. Los dos teoremas anteriores se pueden resumir en el siguiente: \beteor Dado el problema de valor inicial: \[ (P.V.I.)\left\{ \begin{array}{lll} y^{\prime }(t) & =f(t,y(t)), & \qquad t\in [t_{0},t_{0}+T] \\ y(t_{0}) & =y_{0} & \end{array} \right. \] y considerando el m\'{e}todo num\'{e}rico de pasos libres: \begin{eqnarray*} &&y_{0}\;\;\;dado \\ y_{n+1} &=&y_{n}+h_{n}\, g(t_{n},y_{n},h_{n})\qquad (n=0,1,...N-1) \end{eqnarray*} entonces, bajo las hip\'{o}tesis: \[ \begin{array}{l} 1{{}^{a}}) g(t,y,0)=f(t,y) \\ 2{{}^{a}}) \exists L\in \R/\left| g(t,y,h)-g(t,z,h)\right| \leq L\, \left| y-z\right|\\ \forall t\in \left[ t_{0},t_{N}\right] ,\forall h\in ]0,H[,\forall y,z\in \R \end{array} \] el m\'{e}todo de pasos libres es convergente. \enteor \underline{Demostraci\'{o}n:} \es Es una consecuencia inmediata de los dos teoremas anteriores. \hspace{10cm}c.q.d. \beteor Bajo las hip\'{o}tesis: \[ \begin{array}{l} 1{{}^{a}}) g(t,y,0)=f(t,y) \\ 2{{}^{a}}) \exists L\in \R/\left| g(t,y,h)-g(t,z,h)\right| \leq L\, \left| y-z\right| \\ \forall t\in \left[ t_{0},t_{N}\right] ,\forall h\in ]0,H[,\forall y,z\in \R \end{array} \] el error del m\'{e}todo de pasos libres (\ref{euex}) puede acotarse mediante la expresi\'{o}n: \[ \left| y(t_{n})-y_{n}\right| \leq e^{L\, (t_{n}-t_{0})}\, \left| y(t_{0})-y_{0}\right| +C(h)\, \frac{1}{L}\, \left( e^{L\, (t_{n}-t_{0})}-1\right) \] donde $C(h)$ s\'{o}lo depende de $h$ $=$ ${Sup}_{0\leq n\leq N-1}% \left\{ h_{n}\right\} .$ \enteor \underline{Demostraci\'{o}n:} \es N\'otese que si en el teorema \ref{teolip} se considera $z_{n}=y(t_{n})$, entonces se tiene que para $0\leq n\leq N-1$, \[ \left| y(t_{n+1})-y_{n+1}\right| \leq e^{L\, (t_{n+1}-t_{0})}\, \left| y(t_{0})-y_{0}\right| +\sum\limits_{i=0}^{n}e^{L\, (t_{n+1}-t_{i+1})}\, \left| E_{n+1}\right| \] donde $E_{n+1}$ es el error de consistencia que est\'{a} dado por: \[ E_{n+1}=y(t_{n+1})-y(t_{n})-h_{n}\, g(t_{n},y(t_{n}),h_{n}) \] Por otra parte, habida cuenta de la EDO que define el problema de valor inicial y aplicando el teorema de incrementos finitos se tiene que: \[ \exists \xi _{n}\in ]t_{n},t_{n+1}[\;\;/\;\;y(t_{n+1})-y(t_{n})=h_{n}\, f(\xi _{n},y(\xi _{n})) \] por lo que: \[ \exists \xi _{n}\in ]t_{n},t_{n+1}[\;\;/\;\;E_{n+1}=h_{n}\, \left[ f(\xi _{n},y(\xi _{n}))-g(t_{n},y(t_{n}),h_{n})\right]\Rightarrow \] \[ \Rightarrow \qquad \exists \xi _{n}\in ]t_{n},t_{n+1}[\;\;/\;\;E_{n+1}=h_{n}\, \left( f(\xi _{n},y(\xi _{n}))-g(\xi _{n},y(\xi _{n}),0)\right) + \] \[ +h_{n}\left( g(\xi _{n},y(\xi _{n}),0)-g(t_{n},y(t_{n}),h_{n})\right) \] y por verificarse la primera de las hip\'{o}tesis supuestas en el enunciado: \[ \exists \xi _{n}\in ]t_{n},t_{n+1}[\;\;/\;\;E_{n+1}=h_{n}\, \left( g(\xi _{n},y(\xi _{n}),0)-g(t_{n},y(t_{n}),h_{n})\right) \] de donde, denotando por \[ C(h)={Sup}_{\{0\leq h^{\prime }\leq h ,\,\left| t-\xi \right| \leq h\}} \left[ \left| g(t,y(t),0)-g(\xi ,y(\xi ),h^{\prime })\right| \right] \] resulta que \[ \left| E_{n+1}\right| \leq C(h)h_{n} \] Volviendo ahora a nuestra desigualdad inicial, para todo valor de $n$ comprendido entre $0$ y $N-1$ se tiene que: \[ \left| y(t_{n+1})-y_{n+1}\right| \leq e^{L\, (t_{n+1}-t_{0})}\, \left| y(t_{0})-y_{0}\right| +C(h)\, \sum\limits_{i=0}^{n}e^{L\, (t_{n+1}-t_{i+1})}\, h_{i}\leq \] \[ \leq e^{L\, (t_{n+1}-t_{0})}\, \left| y(t_{0})-y_{0}\right| +C(h)\, \sum\limits_{i=0}^{n}\displaystyle\int\limits_{t_{i}}^{t_{i+1}}e^{L\, (t_{n+1}-t)}dt\;\Rightarrow \] \[ \Rightarrow \left| y(t_{n+1})-y_{n+1}\right| \leq e^{L\, (t_{n+1}-t_{0})}\, \left| y(t_{0})-y_{0}\right| +C(h)\, \frac{% e^{L\, (t_{n+1}-t_{0})}-1}{L} \] \hspace{10cm}c.q.d. Una vez analizada la convergencia de un m\'{e}todo general de pasos libres podemos presentar un teorema que nos permite determinar de manera sencilla el orden de convergencia de m\'{e}todo (\ref{euex}). \beteor Suponiendo que la funci\'{o}n $f$ que interviene en el problema $(P.V.I)$ es una funci\'{o}n $k$ veces continuamente diferenciable en $% ]t_{0},t_{N}[\times \R$ y siendo la funci\'{o}n $g$ que interviene en la definici\'{o}n del m\'{e}todo dado por (\ref{euex}) una funci\'{o}n $k$ veces continuamente diferenciable en $]t_{0},t_{N}[\times \R\times ]0,H[$ , una condici\'{o}n necesaria y suficiente para que el m\'{e}todo sea convergente de orden $k$ es que se verifiquen para todo par de valores $% (t,y) $ de $]t_{0},t_{N}[\times \R$ las $k$ igualdades siguientes: \[ \begin{array}{lll} g(t,y,0) & =f(t,y) & \\ \dis\frac{\partial g}{\partial h}g(t,y,0) & =\dis\frac{1}{2}\, \left[ \dis\frac{% \partial f}{\partial x}(t,y)+\dis\frac{\partial f}{\partial x}(t,y)\, f(t,y)\right] & =\dis\frac{1}{2}\, \dis\frac{df}{dx}(t,y) \\ \dis\frac{\partial ^{2}g}{\partial h^{2}}(t,y,0) & =\dis\frac{1}{3}\, [\dis\frac{% \partial ^{2}f}{\partial x^{2}}+2\, \dis\frac{\partial ^{2}f}{\partial x\partial y}\, f+ & \\ & +\dis\frac{\partial f}{\partial x}\, \dis\frac{\partial f}{\partial x}+\left( \dis\frac{\partial ^{2}f}{\partial y^{2}}\right) ^{2}\, f+\dis\frac{\partial ^{2}f% }{\partial y^{2}}\, f^{2}] & =\dis\frac{1}{3}\dis\frac{d^{2}f}{dx^{2}}(t,y) \\ .... & ..... & ..... \\ \dis\frac{\partial ^{(k-1)}g}{\partial h^{(k-1)}}(t,y,0) & =\dis\frac{1}{k}\, \dis\frac{d^{(k-1)}f}{dx^{(k-1)}}(t,y) & \end{array} \] \enteor \underline{Demostraci\'{o}n:} Cons\'{u}ltese Crouzeix y Mignot\footnote{Crouzeix, M., Mignot A.L. (1984) ``Analyse num\'{e}rique des \'{e}quations diff\'{e}rentielles'', Ed. Masson.}. \beobse Las ma\-yo\-ra\-ciones realizadas en los teoremas precedentes son, a menudo, muy ``pesimistas'', es decir utilizando magnitudes sobremayoradas. En muchos casos (imponiendo m\'{a}s condiciones a las funciones $f(t,y)$ y $% g(t,y,h))$ pueden obtenerse acotaciones m\'{a}s precisas. Por ejemplo, en Crouzeix y Mignot$^{19}$ %\footnote{Crouzeix, M., Mignot A.L. (1984) ``Analyse num\'{e}rique des %\'{e}quations diff\'{e}rentielles'', Ed. Masson.} pueden encontrarse algunas de ellas. En esa misma referencia puede encontrarse la demostraci\'{o}n del siguiente teorema: \enobse \beteor Bajo las hip\'{o}tesis: \begin{itemize} \item[a)] Si el m\'{e}todo (\ref{euex}) es estable y consistente de orden $k$, con $% k\geq 1,$ \item[b)] la funci\'{o}n $f$ se supone ($k+1)$ veces continuamente diferenciable en $]t_{0},t_{N}[\times \R$ \item[c)] siendo la funci\'{o}n $g$ que interviene en la definici\'{o}n del m\'{e}todo una funci\'{o}n ($k+1)$ veces continuamente diferenciable en $% ]t_{0},t_{N}[\times \R\times ]0,H[$ \item[d)] la longitud de los intervalos de integraci\'{o}n $h_{n}$ puede expresarse como una funci\'{o}n $h_{n}=h (\theta (t_{n})+0(h)),$ siendo $\theta (t) $ una funci\'{o}n lipschitciane en $[t_{0},t_{N}]$ y tal que $0<\theta (t)\leq 1$ para todo valor de $t$ \item[e)] si para los diferentes valores de $h$ que puedan considerarse la aproximaci\'{o}n $y_{0,h}$ que se tome del valor inicial $y_{0}$ satisface que $\left| y_{0}-y_{0,h}\right| =O(h^{k+1})$. \end{itemize} entonces el error del m\'{e}todo en $t_{n}$ satisface la expresi\'{o}n: \[ e_{n}=y(t_{n})-y_{n}=h^{k}\, z_{1}(t_{n})+(y_{0}-y_{0,h})\, z_{0}(t_{n})+O(h^{k+1}) \] donde $z_{0}(t)$ y $z_{1}(t)$ son las soluciones de los problemas de valor inicial siguientes: \[ \left\{ \begin{array}{ll} z_{0}^{^{\prime }}(t) & =\dis\frac{\partial f}{\partial y}(t,y(t)) z_{0}(t) \\ z_{0}(t_{0}) & =1 \end{array} \right. \] y \[ \left\{ \begin{array}{ll} z_{1}^{^{\prime }}(t) & =\dis\frac{\partial f}{\partial y}(t,y(t))\, z_{1}(t)+\left[ \dis\frac{1}{(k+1)!} \dis\frac{d^{k}f}{dx^{k}}(t,y(t))-\dis\frac{1}{% k!}\, \dis\frac{d^{k}g}{dh^{k}}(t,y(t),0)\right] \left( \theta (t)\right) ^{k} \\ z_{1}(t_{0}) & =0 \end{array} \right. \] \enteor \beobse El teorema anterior puede ser utilizado, entre otras cosas, para di\-se\-\~{n}ar estrategias de control del tama\~{n}o de paso basadas en la extrapolaci\'{o}n de Richardson. En efecto, en dicho teorema se establece que dado un m\'{e}todo estable de orden $k$ (y bajo hip\'{o}tesis de regularidad suficientes) en un punto $t^{*}$ puede ob\-te\-ner\-se una aproximaci\'{o}n con un tama\~{n}o de paso $h$ que denotaremos por $y_{n,h}$ y otra aproximaci\'{o}n $y_{m,q\, h}$ utilizando un tama\~{n}o de paso $% q\, h$ verific\'{a}ndose entonces que: \[ y(t_{*})=y_{n,h}+h^{k}\, z_{1}(t^{*})+O(h^{k+1}) \] \[ y(t_{*})=y_{m,q\, h}+q^{k}\, h^{k}\, z_{1}(t^{*})+O(h^{k+1}) \] Combinando las dos expresiones anteriores se obtiene que: \[ \dis\frac{q^{k}\, y_{n,h}-y_{m,q\, h}}{q^{k}-1}=y(t^{*})+O(h^{k+1}) \] y que \[ y_{n,h}-y(t_{*})=\dis\frac{y_{m,q\, h}-y_{n,h}}{q^{k}-1}+O(h^{k+1}) \] La \'{u}ltima de las expresiones obtenidas nos permite considerar que: \[ \dis\frac{y_{m,q\, h}-y_{n,h}}{q^{k}-1} \] es una estimaci\'{o}n del error cometido al actuar con paso $h.$ Con estas consideraciones una t\'{e}cnica para controlar autom\'{a}ticamente el paso de c\'{a}lculo consiste en calcular el valor $y_{n+1,h}$ a partir de $y_{n}$ (es decir con un tama\~{n}o de paso $h_{n})$ y calcular $% y_{n+1,h^{\prime }}$ a partir de $y_{n-1}$ (es decir con tama\~{n}o de paso $% h^{\prime }=h_{n-1}+h_{n})$ denotando por $q$ al valor: \[ q=\dis\frac{h_{n}+h_{n+1}}{h_{n}} \] Si, siendo $\varepsilon $ una tolerancia de error asumible y dada por el usuario, se verificase que: \[ \left| \dis\frac{y_{n+1,h^{\prime }}-y_{n+1,h}}{q^{k}-1}\right| \leq \varepsilon \] el error cometido entre la aproximaci\'{o}n obtenida con paso $h$ y la soluci\'{o}n exacta es un error aceptable y podr\'{\i}a intentar operarse con un tama\~{n}o de paso $q\, h_{n}$ para etapas posteriores del m\'{e}todo. Adem\'{a}s el valor aproximado puede mejorarse mediante: \[ \widehat{y}_{n+1}=y_{n+1,h}-\dis\frac{y_{n+1,h^{\prime }}-y_{n+1,h}}{q^{k}-1}=% \dis\frac{q^{k}\, y_{n+1,h}-y_{n+1,h^{\prime }}}{q^{k}-1} \] Si por el contrario resultara que: \[ \left| \dis\frac{y_{n+1,h^{\prime }}-y_{n+1,h}}{q-1}\right| >\varepsilon \] resultar\'{a} que el tama\~{n}o de paso $h_{n}$ no nos garantiza un error aceptable en la estimaci\'{o}n de la soluci\'{o}n aproximada obtenida por el m\'{e}todo de Euler. Ello aconsejar\'{a} reducir el tama\~{n}o del paso utilizado (por ejemplo a la mitad) pasando a de\-no\-mi\-nar\-se $t_{n+1}$ al punto $% t_{n}+\dis\frac{h_{n}}{2}$ considerando entonces que $h_{n}$ toma un valor igual a la mitad que el que ten\'{\i}a. Con este nuevo tama\~{n}o de paso puede volver a repetirse el mismo proceso. \enobse \section{Los m\'{e}todos de Runge-Kutta} Los m\'etodos de Runge-Kutta representan el ejemplo m\'as cl\'asico de los m\'etodos de pasos libres. \subsection{Descripci\'on.} Consideramos el problema de valor inicial $(P.V.I.)$ y la subdivisi\'{o}n del intervalo $[t_{0},t_{N}]$ generando los puntos $% t_{0}j$. En dicho caso la determinaci\'{o}n de los valores intermedios exigir\'{\i }a resolver un sistema de ecuaciones (en general no lineales). Por dicho motivo a este tipo de m\'{e}todos se les denomina \textbf{m\'{e}todos de Runge-Kutta impl\'{\i }citos.} \beobse Suponer que la matriz ${\mathbf B}$ puede ser triangular superior e\-qui\-va\-le a su\-po\-ner\-la triangular inferior sin m\'as que ordenar los segundos sub\'{\i}ndices de los puntos intermedios $t_{n,j}$ en sentido inverso al que se considere. Por tanto s\'olo se distinguen las tres situaciones que se acaban de se\~nalar: que ${\mathbf B}$: {\bf 1)} sea estrictamente triangular inferior; {\bf 2)} sea triangular inferior; {\bf 3)} no sea triangular inferior, asumi\'endose en este caso que tampoco es triangular superior. Es por eso que en el tercer caso se ha afirmado que la aplicaci\'on del m\'etodo exige resolver un sistema de ecuaciones (cuando si se hubiese considerado la posibilidad de que ${\mathbf B}$ fuese triangular superior podr\'{\i}a darse el caso de s\'olo tener que resolver ecuaciones independientes entre s\'{\i} (si ${\mathbf B}$ es triangular superior con alg\'un e\-le\-men\-to diagonal no nulo) o sin necesidad de tener que resolver ninguna ecuaci\'on (si ${\mathbf B}$ fuese estr\'{\i}ctamente triangular superior)). \enobse La consideraci\'on de m\'etodos semi-impl\'{\i}citos e impl\'{\i}citos plantea una cuesti\'on adicional en el an\'alisis de los m\'etodos. Dicha cuesti\'on consiste en determinar si la ecuaci\'on o ecuaciones a resolver en cada paso tienen soluci\'on y, en caso de tenerla, si dicha soluci\'on es \'unica o existen varias soluciones verificando las ecuaciones intermedias. Esta \'ultima cuesti\'on cae dentro del an\'alisis de ecuaciones no lineales y de los m\'etodos num\'ericos de resoluci\'on de las mismas. En general escribiremos el m\'etodo de Runge-Kutta en la forma: \begin{equation} \{\tilde{{\mathbf y}}_{n}\}-h_{n}\, [{\mathbf B}] \, \{\tilde{{\mathbf y}}_{n}\}=\{{\mathbf y}_{n}\} \end{equation} \begin{equation} y_{n+1}=y_{n}+h_{n} g(t_{n},\{\tilde{{\mathbf y}}_{n}\}, h_{n})=y_{n}+h_{n} \left( \sum_{j=1}^{p}a_{j} f(t_{j}+c_{j} h_{n},\tilde{y}% _{n,j})\right) \end{equation} donde se ha designado por: \[ \{\tilde{{\mathbf y}}_{n}\}=\left\{ \begin{array}{c} \tilde{y}_{n,1} \\ \tilde{y}_{n,2} \\ \vdots \\ \tilde{y}_{n,p} \end{array} \right\} =\left\{ \begin{array}{c} y_{n,1} \\ y_{n,2} \\ \vdots \\ y_{n,p} \end{array} \right\} ,\;\;\;\;\{{\mathbf y}_{n}\}=\left\{ \begin{array}{c} y_{n} \\ y_{n} \\ \vdots \\ y_{n} \end{array} \right\} \] Supondremos adem\'{a}s en este apartado que la funci\'{o}n $f(t,y)$ que interviene en el problema de valor inicial es lipschitciana, de raz\'{o}n $L$% , respecto a su segunda variable, es decir que verifica: \begin{equation} \exists L>0/\forall t\in [t_{0},t_{N}],\quad \forall y,z\in \R :\quad \mid f(t,y)-f(t,z)\mid \;\leq \;L\mid y-z\mid \end{equation} En estas condiciones puede demostrarse el siguiente teorema: \beteor Si se designa por $\rho (\mathbf{B})$ al radio espectral de la matriz $B$ con la que se define el m\'{e}todo de Runge-Kutta y se verifica que $% h_{n}\, L\, \rho (\mathbf{B})<1$, entonces el sistema dado por (\ref{carlos}) admite una soluci\'{o}n \'{u}nica. \enteor \underline{\textbf{Demostraci\'{o}n:}} \es Es una consecuencia del teorema de punto fijo demostrado en el tema anterior (consultar el Crouzeix y Mignot\footnote{Crouzeix, M., Mignot A.L. (1984) ``Analyse num\'{e}rique des \'{e}quations diff\'{e}rentielles'', Ed. Masson.}). \hspace{10cm}c.q.d. En cuanto al an\'{a}lisis de la estabilidad de los m\'{e}todos de Runge-Kutta comencemos analizando el caso de los m\'{e}todos expl\'{i}citos. Con el objeto de introducir al lector de forma sencilla en la t\'{e}cnica del an% \'{a}lisis de estabilidad estudiamos en primer lugar la estabilidad de un m\'{e}todo de Runge-Kutta expl\'{i}cito con dos puntos ``intermedios'' $t_{n,1}=t_{n}+c_{1}\, h_{n}$ y $t_{n,2}=h_{n}+c_{2}\, h_{n}.$ La tabla de este m\'{e}todo de Runge-Kutta puede escribirse entonces como: $\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\; \begin{tabular}{r|rr} $c_{1}$ & $0$ & $0$ \\ $c_{1}$ & $b_{2,1}$ & $0$ \\ \hline & $a_{1}$ & $a_{2}$% \end{tabular} $ con lo que una etapa gen\'{e}rica del m\'{e}todo se puede escribir (v\'{e}% ase los comentarios antes realizados al describir la forma de construir un algoritmo de estos m\'{e}todos) como: \[ W_{n,1}=f(t_{n,1},y_{n}) \] \[ W_{n,2}=f(t_{n,2},y_{n}+h_{n}\, b_{2,1}\, W1) \] \[ y_{n+1}=y_{n}+h_{n}\, \left( a_{1}\, W_{n,1}+a_{2}\, W_{n,2}\right) \] La idea para estudiar las condiciones en que este m\'{e}todo es estable consiste en verificar las hip\'{o}tesis del teorema (\ref{teolip}). Por ello supondremos que el m\'{e}todo se aplica a un problema de valor inicial: \[ (P.V.I.)\left\{ \begin{array}{lll} y^{\prime }(t) & =f(t,y(t)) & t\in \left[ t_{0},t_{N}\right] \\ y(t_{0}) & =y_{0} & \end{array} \right. \] en el que la funci\'{o}n $f(t,y)$ es una funci\'{o}n lipschitciana (de raz\'{o}n $L$) respecto a su segunda variable y llamaremos funci\'{o}n $g(t,y,h)$ a la funci\'{o}n: \[ g(t,y,h)=a_{1}\, f(t+c_{1}\, h,y)+a_{2}\, f(t+c_{2}\, h,y+h\, b_{2,1}\, f(t+c_{1}\, h,y))= \] \[ =a_{1}\, W1(t,y,h)+a_{2}\, W2(t,y,h) \] con \[ W1(t,y,h)=f(t+c_{1}\, h,y),\;\;\;W2(t,y,h)=f(t+c_{2}\, h,y+h\, b_{2,1}\, W1(t,y,h)) \] Utilizando esta notaci\'{o}n es evidente que para todo par de valores de $y$ y $z$ reales: \[ \left| W1(t,y,h)-W1(t,z,h)\right| =\left| f(t+c_{1}\, h,y)-f(t+c_{1}\, h,z)\right| \leq \] \[ \leq L\, \left| y-z\right| \] y \[ \left| W2(t,y,h)-W2(t,z,h)\right| = \] \[ \left| f(t+c_{2}\, h,y+h\, b_{2,1}\, W1(t,y,h))-f(t+c_{2}\, h,z+h\, b_{2,1}\, W1(t,z,h))\right| \leq \] \[ \leq L\, \left| \left( y+h\, b_{2,1}\, W1(t,y,h)\right) -\left( z+h\, b_{2,1}\, W1(t,z,h)\right) \right| = \] \[ =L\, \left| (y-z)+h\, b_{2,1}\, \left( W1(t,y,h)-W1(t,z,h)\right) \right| \leq \] \[ \leq L.\left| y-z\right| +h\, L\, \left| b_{2,1}\right| \, \left| W1(t,y,h)-W1(t,z,h)\right| \leq \] \[ \leq L.\left| y-z\right| +h\, L\, \left| b_{2,1}\right| \, L\, \left| y-z\right| = \] \[ =\left( L+h\, L^{2}\, \left| b_{2,1}\right| \right) \, \left| y-z\right| \] Por tanto, para cualquier par de valores $y$ y $z$: \[ \left| g(t,y,h)-g(t,z,h)\right| = \] \[ \left| \left( a_{1}\, W1(t,y,h)+a_{2}\, W2(t,y,h)\right) -\left( a_{1}\, W1(t,z,h)+a_{2}\, W2(t,z,h)\right) \right| = \] \[ =\left| a_{1}\, \left( W1(t,y,h)-W1(t,z,h)\right) +a_{2}\, \left( W2(t,y,h)-W2(t,z,h)\right) \right| \leq \] \[ \leq \left| a_{1}\right| \, \left| W1(t,y,h)-W1(t,z,h)\right| +\left| a_{2}\right| \, \left| W2(t,y,h)-W2(t,z,h)\right| \leq \] \[ \leq \left| a_{1}\right| \, L\, \left| y-z\right| +\left| a_{2}\right| \, \left( L+h\, L^{2}\, \left| b_{2,1}\right| \right) \, \left| y-z\right| = \] \[ =\left( \left| a_{1}\right| \, L+\left| a_{2}\right| \, \left( L+h\, L^{2}\, \left| b_{2,1}\right| \right) \right) \left| y-z\right| = \] \[ =L^{\prime }\, \left| y-z\right| \] donde hemos designado por $\widetilde{L}$ al valor: \[ L^{\prime }=L\, \left( \left| a_{1}\right| +\left| a_{2}\right| \, \left( 1+h\, L\, \left| b_{2,1}\right| \right) \right) \] El \'{u}nico problema que nos plantea la constante anterior es que depende del propio valor de $h.$ En este sentido basta con considerar que $h$ se escoge en un intervalo $00 \\ y(0) & =1 & \end{array} \right. \qquad K>0 \] que admite como soluci\'{o}n una funci\'{o}n exponencial $y(t)=e^{-Kt}$. Ello, en primer lugar, puede darnos una idea bastante buena de la evoluci% \'{o}n de los errores del m\'{e}todo. Asimismo, puesto que la soluci\'{o}n anal\'{\i}tica es siempre positiva y decreciente puede permitirnos extraer cotas sobre los tama\~{n}os m\'{a}ximos de los pasos de integraci\'{o}n a utilizar si se desean garantizar la positividad y el decrecimiento en valor absoluto de las soluciones aproximadas. \enobse \bejem Consid\'{e}rese el m\'{e}todo de Heun: \[ y_{n+1}=y_{n}+\frac{h_{n}}{2}\, \left( f(t_{n},y_{n})+f(t_{n}+h_{n},y_{n}+h_{n}\, f(t_{n},y_{n})\right) \] y sup\'{o}ngase que se aplica con longitud de paso de integraci\'{o}n constante $h$ a la resoluci\'{o}n del problema: \[ \left\{ \begin{array}{lll} y^{\prime }(t) & =-K.y(t) & 00 \] Al estar trabajando en un intervalo acotado, los errores del m\'{e}todo de Heun (que como veremos posterormente es consistente) van a permanecer acotados sea cual sea el valor que asignemos a $h.$ Pero la soluci\'{o}n aproximada puede no tener el m\'{a}s remoto parecido con la anal\'{i}tica si no limitamos este tama\~{n}o de paso de integraci\'{o}n. \textquestiondown A qu\'{e} valor debemos limitar este tama\~{n}o m\'{a}ximo?. \es La forma de razonar consiste en analizar una etapa gen\'{e}rica del m\'{e}todo aplicado al pro\-ble\-ma anterior, es decir: \[ y_{n+1}=y_{n}+\frac{h}{2}\, \left( f(t_{n},y_{n})+f(t_{n}+h,y_{n}+h\, f(t_{n},y_{n})\right) = \] \[ =y_{n}+\frac{h}{2}\, \left( -K\, y_{n} -K\, \left( y_{n}+h\, \left( -K\, y_{n}\right) \right) \right) = \] \[ =\left( 1-\frac{K\, h}{2}-\frac{K\, h}{2}+\frac{K^{2}\, h^{2}}{2}% \right) \, y_{n}= \] \[ =\left( 1-K\, h+\frac{K^{2}\, h^{2}}{2}\right) \, y_{n}=\alpha \, y_{n} \] donde \[ \alpha =\left( 1-K\, h+\frac{K^{2}\, h^{2}}{2}\right) \] La expresi\'{o}n anterior, aplicada de forma recursiva, nos permite escribir que: \[ y_{n}=\alpha ^{n}\, y_{0}=\alpha ^{n} \] Obs\'{e}vese que en este caso $\alpha $ siempre ser\'{a} positivo (al ser $K$ y $h$ positivos). En efecto, si se denota por $\xi =K\, h$ se tiene que $% \alpha =1-\xi +\xi ^{2}/2$ que es la ecuaci\'{o}n de una par\'{a}bola que nunca corta al eje de abscisas (no tiene ra\'{i}ces reales) y que, al tomar valor positivo para $\xi =0,$ siempre toma valores positivos. Por tanto, el m% \'{e}todo de Heun garantiza la positividad de la soluci\'{o}n aproximada para cualquier elecci\'{o}n del paso de integraci\'{o}n. Pero \textquestiondown y el decrecimiento?. Para ello se deber\'{i}a exigir que: \[ \alpha <1\Rightarrow 1-K\, h+\frac{K^{2}\, h^{2}}{2}<1\Rightarrow K\, h\, (1-\frac{K\, h}{2})>0\Rightarrow \] \[ \Rightarrow h<\frac{2}{K} \] Es decir, que tenemos restricciones del tama\~{n}o de paso similares a las que encontr\'{a}bamos en el m\'{e}todo de Euler. \enejem \beobse Obs\'{e}rvese que realmente estamos combinando dos conceptos de estabilidad. Uno, el que hemos definido anteriormente, que se refiere a que la soluci\'{o}n a\-pro\-xi\-ma\-da permanezca acotada cuando se trabaja en intervalos acotados, aunque se utilicen valores del tama\~{n}o de paso muy peque\~{n}os y con ello se realicen un n\'{u}mero elevado de pasos de integraci\'{o}n. Y, otro, el que las soluciones aproximadas no exploten cuando se trabaja en intervalos de longitud tendente a infinito si no lo hacen las soluciones anal\'{i}ticas. Ello lleva a distinguir el concepto de estabilidad que hasta ahora hemos manejado del concepto de estabilidad absoluta cuyo tratamiento riguroso desborda los objetivos de este curso. \enobse \beobse Utilizando palabras del profesor Euvrard, notemos que no ser\'{i}a ``moral'' que un m\'{e}todo expl\'{i}cito (poco costoso por paso) fuese incondicionalmente estable para todo tipo de tama\~{n}os de pasos de integraci\'{o}n y en tiempos tendientes al infinito, pues dejar\'{i}a en muy mal lugar a los m\'{e}todos impl\'{i}citos. \enobse El an\'{a}lisis de la estabilidad realizado para los m\'{e}todos de Runge-Kutta expl\'{i}citos puede extenderse f\'{a}cilmente a los m\'{e}todos semi-impl\'{i}citos e impl\'{i}citos. Nosotros nos limitaremos a enunciar algunos de los teoremas m\'{a}s cl\'{a}sicos al respecto. En ellos denotaremos por matriz $\mathbf{B}^{*}$ a la matriz: \[ \mathbf{B}^{*}=\left[ \begin{array}{cccc} \left| b_{1,1}\right| & \left| b_{1,2}\right| & \,s & \left| b_{1,p}\right| \\ \left| b_{2,1}\right| & \left| b_{2,2}\right| & \,s & \left| b_{2,p}\right| \\ \vdots & \vdots & \vdots & \vdots \\ \left| b_{p,1}\right| & \left| b_{p,2}\right| & \,s & \left| b_{p,p}\right| \end{array} \right] \] \beteor Suponiendo que $\mathbf{B}$ es una matriz para la que se verifica que $% H\, L\, \rho (\mathbf{B}^{*})<1$ entonces el m\'{e}todo de Runge-Kutta correspondiente es estable para todo valor del paso de integraci\'{o}n $h$ que verifique: $00 \\ z(0)=0, \qquad z^{\prime }(0)=V_{0} & \end{array} \right. \] donde $A$ y $B$ son dos constantes dadas por: \[ A=\dis\frac{32\, \mu }{\rho \, d^2 },\;\;\;\;B=\dis\frac{2\, g}{L} \] La figura siguiente recoge un esquema del proceso descrito: %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%5 \begin{figure} \centering \includegraphics[width=0.6\textwidth]{fig516.eps} %\caption{} %\label{figura16} \end{figure} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% El problema de valor inicial antes planteado puede transformarse en otro regido por un sistema de dos ecuaciones diferenciales de primer orden en la forma: \[ \left\{ \begin{array}{lll} \dis y_{1}^{^{\prime }}(t) & =y_{2}(t) & t>0 \\ \dis y_{2}^{^{\prime }}(t) & =-B\, y_{1}(t)-A\, y_{2}(t) & t>0 \\ y_{1}(0) & =0,\qquad y_{2}(0)=V_{0} & \end{array} \right. \] donde se ha denotado por $y_{1}(t)=z(t)$ (la funci\'on de desplazamiento) y por $y_{2}(t)=z^{\prime }(t)$ (la funci\'on de velocidad). \es Consideremos un fluido para el que $\mu =0.001 \,\mbox{Kg}/(\mbox{m}\, \mbox{s})$, $\rho =1 \,\mbox{Kg}\mbox{m}^{-3}$ y tomemos como valor de $g=9.81\,\mbox{m}\mbox{s}^{-2}$, $d=0.2 \mbox{m}$, $L=3$m y $V_{0}=1$m/s y apliquemos el algoritmo del m\'{e}todo de Runge-Kutta cl\'{a}sico antes descrito, con paso de integraci\'{o}n constante $h=0.05,$ a la resoluci\'{o}n de este problema. \es Para ello llamaremos: $$ \dis A=\frac{32 \, 0.001}{1\, 0.04}=0.8 ,\qquad B=\frac{2\, 9.81}{3}=6.54 $$ \[ \mathbf{y}^{(0)}=\left\{ \begin{array}{l} 0 \\ 1 \end{array} \right\} ,\;\;\;\;\;\mathbf{f}(t,\mathbf{y}(t))=\left\{ \begin{array}{l} y_{2}(t) \\ -6.54\, y_{1}(t)-0.8\, y_{2}(t) \end{array} \right\} \] El primer paso del algoritmo nos conduce a: \[ \mathbf{W1}=\mathbf{f}(0,\left\{ 0,1\right\} ^{T})=\left\{ \begin{array}{l} 1 \\ -6.54\, 0-0.8\, 1 \end{array} \right\} =\left\{ \begin{array}{l} 1 \\ -0.8 \end{array} \right\} \] \[ \mathbf{W2}=\mathbf{f}\left( 0+\dis\frac{0.05}{2},\left\{ \begin{array}{l} 0 \\ 1 \end{array} \right\} +\dis\frac{0.05}{2}\left\{ \begin{array}{l} 1 \\ -0.8 \end{array} \right\} \right) =\mathbf{f}\left( 0.025 ,\left\{ \begin{array}{l} 0.025 \\ 0.98 \end{array} \right\} \right) \] \[ =\left\{ \begin{array}{l} 0.98 \\ -6.54\, 0.025-0.8\, 0.98 \end{array} \right\} =\left\{ \begin{array}{l} 0.98 \\ -0.9475 \end{array} \right\} \] \[ \mathbf{W3}=\mathbf{f}\left( 0+\dis\frac{0.05}{2},\left\{ \begin{array}{l} 0 \\ 1 \end{array} \right\} +\dis\frac{0.05}{2}\left\{ \begin{array}{l} 0.98 \\ -0.9475 \end{array} \right\} \right) =\mathbf{f}\left( 0.025 ,\left\{ \begin{array}{l} 0.0245 \\ 0.9763125 \end{array} \right\} \right) \] \[ =\left\{ \begin{array}{l} 0.9763125 \\ -6.54\, 0.0245-0.8\, 0.9763125 \end{array} \right\} =\left\{ \begin{array}{l} 0.9763125 \\ -0.94128 \end{array} \right\} \] \[ \mathbf{W4}=\mathbf{f}\left( 0+0.05,\left\{ \begin{array}{l} 0 \\ 1 \end{array} \right\} +0.05\left\{ \begin{array}{l} 0.9763125 \\ -0.94128 \end{array} \right\} \right) =\mathbf{f}\left( 0.05 ,\left\{ \begin{array}{l} 0.048815625 \\ 0.952936 \end{array} \right\} \right) \] \[ =\left\{ \begin{array}{l} 0..952936 \\ -6.54\, 0.952936-0.8\, 0.952936 \end{array} \right\} =\left\{ \begin{array}{l} 0.952936 \\ -1.0816029875 \end{array} \right\} \] con lo que finalmente \[ \mathbf{y}^{(1)}\mathbf{\ }=\mathbf{y}^{(0)}+\dis\frac{h_{0}}{6}\, \left( \mathbf{W1}+2 \, \left( \mathbf{W2}+\mathbf{W3}\right) +\mathbf{W4}\right) =\left\{ \begin{array}{l} 0 \\ 1 \end{array} \right\}+ \] \[ \dis\frac{0.05}{6} \left( \left\{ \begin{array}{l} 1 \\ -0.8 \end{array} \right\} +2 \left( \left\{ \begin{array}{l} 0.98 \\ -0.9475 \end{array} \right\} +\left\{ \begin{array}{l} 0.97631 \\ -0.94128 \end{array} \right\} \right) +\left\{ \begin{array}{l} 0.95293 \\ -1.08160 \end{array} \right\} \right) = \] \[ =\left\{ \begin{array}{l} 0.04887 \\ 0.95284 \end{array} \right\} \] Es decir que al cabo de $0.05$ segundos el l\'{\i}quido habr\'{a} ascendido $% 0.04887$ metros y se estar\'{a} moviendo con una velocidad de $% 0.95284$ m/s. \es El segundo paso consistir\'{a} en: \[ \mathbf{W1}=\mathbf{f}\left( 0.05 ,\left\{ \begin{array}{c} 0.04887 \\ 0.95284 \end{array} \right\} \right) = \] \[ \left\{ \begin{array}{l} 1 \\ -6.54\cdot 0.04887-0.8\cdot 0.95284 \end{array} \right\} =\left\{ \begin{array}{l} 0.95284 \\ -1.08194 \end{array} \right\} \] \[ \mathbf{W2}=\mathbf{f}\left( 0.05 +\dis\frac{0.05}{2},\left\{ \begin{array}{l} 0.04887 \\ 0.95284 \end{array} \right\} +\dis\frac{0.05}{2}\left\{ \begin{array}{l} 0.95284 \\ -1.08194 \end{array} \right\} \right) = \] \[ =\mathbf{f}\left( 0.075 ,\left\{ \begin{array}{l} 0.07270 \\ 0.92579 \end{array} \right\} \right) =\] \[\left\{ \begin{array}{l} 0.92579 \\ -6.54\cdot 0.07270-0.8\cdot 0.92579 \end{array} \right\} = \left\{ \begin{array}{l} 0.92579\\ -1.21609 \end{array} \right\} \] \[ \mathbf{W3}=\mathbf{f}\left( 0.05 +\dis\frac{0.05}{2},\left\{ \begin{array}{l} 0.048879 \\ 0.95284 \end{array} \right\} +\dis\frac{0.05}{2}\left\{ \begin{array}{l} 0.92579 \\ -1.21609 \end{array} \right\} \right) = \] \[ =\mathbf{f}\left( 0.075 ,\left\{ \begin{array}{l} 0.07202 \\ 0.92243 \end{array} \right\} \right) =\] \[\left\{ \begin{array}{l} 0.92243 \\ -6.54\cdot 0.07202-0.8\cdot 0.92243 \end{array} \right\} =\left\{ \begin{array}{l} 0.92243 \\ -1.20899 \end{array} \right\} \] \[ \mathbf{W4}=\mathbf{f}\left( 0.05 +0.05,\left\{ \begin{array}{l} 0.048879 \\ 0.95284 \end{array} \right\} +0.05\left\{ \begin{array}{l} 0.92243 \\ -1.20899 \end{array} \right\} \right) = \] \[ =\mathbf{f}\left( 0.1 ,\left\{ \begin{array}{l} 0.09500 \\ 0.89239 \end{array} \right\} \right) =\] \[\left\{ \begin{array}{l} 0.89239 \\ -6.54\cdot 0.09500-0.8\cdot 0.89239 \end{array} \right\} =\left\{ \begin{array}{l} 0.89239 \\ -1.33522 \end{array} \right\} \] con lo que finalmente \[ \mathbf{y}^{(2)}\mathbf{\ }=\mathbf{y}^{(2)}+\dis\frac{h_{2}}{6}\, \left( \mathbf{W1}+2\, \left( \mathbf{W2}+\mathbf{W3}\right) +\mathbf{W4}\right) = \] \[ =\left\{ \begin{array}{l} 0.04887 \\ 0.95284 \end{array} \right\} +\dis\frac{0.05}{6}\, \left\{ \begin{array}{l} 0.95284 \\ -1.08194 \end{array} \right\} + \] \[ +\dis\frac{0.05}{6}\, \left( 2 \left( \left\{ \begin{array}{l} 0.92579 \\ -1.21609 \end{array} \right\} +\left\{ \begin{array}{l} 0.92243 \\ -1.20899 \end{array} \right\} \right) +\left\{ \begin{array}{l} 0.89239 \\ -1.33522 \end{array} \right\} \right) = \] \[ =\left\{ \begin{array}{l} 0.09506 \\ 0.89227 \end{array} \right\} \] Es decir, que al cabo de $0.1$ segundos el l\'{\i}quido habr\'{a} ascendido $% 0.09506$ metros y se estar\'{a} moviendo con una velocidad de $% 0.89227$ m/s. \es Con ayuda de un programa recogiendo este m\'{e}todo se han realizado 300 pasos de tiempo obteni\'{e}ndose como valores aproximados de los desplazamientos y velocidades los que se recogen en la gr\'{a}fica siguiente (en punteado los desplazamientos y en trazo continuo las velocidades del fluido): %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%5 \begin{figure} \centering \includegraphics[width=0.6\textwidth]{fig517.eps} %\caption{} %\label{figura17} \end{figure} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% Puedes observar como efectivamente el sistema tiende a volver a la situaci\'{o}n de reposo (desplazamiento nulo y velocidad nula). %TCIDATA{LaTeXparent=0,0,guion5.tex} \section{Introducci\'{o}n a los m\'{e}todos multipaso} \subsection{Introducci\'{o}n.} Los m\'{e}todos vistos hasta ahora para resolver num\'{e}ricamente el problema de encontrar valores aproximados en ciertos instantes $t^{n}$ de la soluci\'{o}n al problema: \[ (P.V.I.)\left\{ \begin{array}{lll} y^{\prime }(t) & =f(t,y(t) & t\in \left[ t_{0},t_{N}\right] \\ [0.2cm] y(t_{0}) & =y_{0} & \end{array} \right. \] utilizaban \'{u}nicamente el valor de $y_{n}\approx y(t_{n})$ para estimar $% y_{n+1}\approx y(t_{n+1}).$ De forma na\-tu\-ral surge entonces la cuesti\'{o}n de si es posible aprovechar la informaci\'{o}n procedente de las soluciones (aproximadas) obtenidas en los instantes $t_{n-1},$ $t_{n-2},...,$ $t_{n-p}$ para ``mejorar'' la soluci\'{o}n obtenida en $t_{n+1}.$ Surgen de esta manera los denominados \textbf{m\'{e}todos multipaso} (o m\'{e}todos de pasos ligados o, tambi\'{e}n, m\'{e}todos de pasos m\'{u}ltiples). De ellos los m\'{a}s cl\'{a}sicos son los denominados m\'{e}todos de Adams y sobre ellos centraremos nuestra atenci\'{o}n. \begin{definition} Se denomina m\'{e}todo de $r$ pasos a aquel que para obtener la soluci\'{o}n aproximada $y_{n+1}$ del problema $(P.V.I.)$ en el instante $t_{n+1}$ utiliza los valores aproximados de la soluci\'{o}n obtenidos en los $r$ instantes anteriores, es decir, $y_{n},$ $y_{n-1},$ ...., $y_{n-r}.$ \end{definition} \subsection{Los m\'{e}todos de Adams.} Consideremos nuevamente el problema $(P.V.I.)$ donde supondremos que la funci% \'{o}n $f$ es lipschitciana respecto a su segunda variable. Sea ademas dada una colecci\'{o}n de instantes intermedios: \[ t_{0}0$ el desarrollo anterior se reescribe como: \[ u(x^{*}+h)\approx u(x^{*})+h \dis\frac{du}{dx}(x^{*}) \] de donde \[ \dis\frac{du}{dx}(x^{*})\approx \dis\frac{u(x^{*}+h)-u(x^{*})}{h} \] f\'{o}rmula en la que se est\'{a} cometiendo un error de truncamiento dado por: \[ E_{tr}=-\dis\frac{h}{2}\dis\frac{d^{2}u}{dx^{2}}(\xi )\rightarrow E_{tr}=O(h) \] La expresi\'{o}n que acabamos de obtener se conoce como una \textbf{% f\'{o}rmula en diferencias finitas progresiva} de primer orden para aproximar la primera derivada de una funci\'{o}n (o, m\'{a}s brevemente, f\'{o}rmula descentrada en adelanto) pues, suponiendo $h>0,$ para aproximar el valor de la primera derivada en $x^{*}$ utiliza el valor de la funci\'{o}n en $x^{*}$ y en un punto ($x^{*}+h)$ ``adelantado'' respecto a $% x^{*}.$ Obviamente, siendo $h>0,$ podr\'{i}a considerarse el desarrollo: \[ u(x^{*}-h)=u(x^{*})-h\dis\frac{du}{dx}(x^{*})+\dis\frac{h^{2}}{2}\dis\frac{% d^{2}u}{dx^{2}}(\xi ) \] del que, siguiendo el mismo proceso anterior, se obtendr\'{\i}a la \textbf{% f\'{o}rmula en diferencias finitas regresiva} de primer orden para aproximar la primera derivada de una funci\'{o}n (o, m\'{a}s brevemente, f\'{o}rmula descentrada en retroceso): \[ \dis\frac{du}{dx}(x^{*})\approx \dis\frac{u(x^{*})-u(x^{*}-h)}{h} \] en la que se comete un error de truncamiento: \[ E_{tr}=\dis\frac{h}{2} \dis\frac{d^{2}u}{dx^{2}}(\xi )\rightarrow E_{tr}=O(h). \] Pero tambi\'{e}n podr\'{\i}amos haber combinado desarrollos en serie. As\'{\i}, si consideramos los dos desarrollos: \[ u(x^{*}+h)=u(x^{*})+h\dis\frac{du}{dx}(x^{*})+\dis\frac{h^{2}}{2}\dis\frac{% d^{2}u}{dx^{2}}(x^{*})+\dis\frac{h^{3}}{6} \dis\frac{d^{3}u}{dx^{3}}(\xi ^{\prime }) \] \[ u(x^{*}-h)=u(x^{*})-h\dis\frac{du}{dx}(x^{*})+\dis\frac{h^{2}}{2}\dis\frac{% d^{2}u}{dx^{2}}(x^{*})-\dis\frac{h^{3}}{6} \dis\frac{d^{3}u}{dx^{3}}(\xi^{''}) \] y al primero le restamos el segundo, se tendr\'{a} que: \[ u(x^{*}+h)-u(x^{*}-h)=2h\dis\frac{du}{dx}(x^{*})+\dis\frac{h^{3}}{6}% \left( \dis\frac{d^3 u}{dx^3}(\xi^\prime )+\dis\frac{d^3 u}{dx^3}(\xi^{''})\right) \Rightarrow \] \[ \dis\frac{du}{dx}(x^{*})=\dis\frac{u(x^{*}+h)-u(x^{*}-h)}{2 h}-\dis\frac{h^{2}}{6}% \dis\frac{d^{3}u}{dx^{3}}(\xi ) \] donde $\xi $ es un punto intermedio entre $(x^{*}-h)$ y $(x^{*}+h).$ De esta expresi\'{o}n puede obtenerse entonces la \textbf{f\'{o}rmula en diferencias finitas centrada}: \[ \dis\frac{du}{dx}(x^{*})\approx \dis\frac{u(x^{*}+h)-u(x^{*}-h)}{2h} \] en la que el error de truncatura estar\'{a} dado por: \[ E_{tr}=-\dis\frac{h^{2}}{6}\dis\frac{d^{3}u}{dx^{3}}(\xi )\rightarrow E_{tr}=O(h^{2}) \] \es \underline{\textbf{NOTA:}} \emph{En el proceso anterior se ha utilizado la igualdad:} \[ \left( \dis\frac{d^{3}u}{dx^{3}}(\xi ^{\prime })+\dis\frac{d^{3}u}{dx^{3}}(\xi ^{''})\right) =2 \dis\frac{d^{3}u}{dx^{3}}(\xi ) \] \textit{Ello es posible gracias a la suposici\'{o}n de que }$u$\textit{\ es una funci\'{o}n de clase }$C^{3}.$\textit{\ En efecto, en estos casos, que nos surgir\'{a}n frecuentemente, ser\'{a} de aplicaci\'{o}n el siguiente teorema cuya demostraci\'{o}n (consecuencia inmediata del teorema del valor medio) puedes encontrar, por ejemplo, en Mi\-cha\-vi\-la y Conde\footnote{F. Michavila y C. Conde. (1987). M\'etodos de aproximaci\'on. Ed. Universidad Polit\'ecnica de Madrid.}:} \begin{theorem} Siendo $f$ una funci\'{o}n continua en $[a,b],$ siendo $\{\xi _{i}\}_{i=1}^{n}$ un conjunto de puntos de $[a,b]$% y siendo $\{\alpha \}_{i=1}^{n}$ un conjunto de n\'{u}meros reales del mismo signo y no nulos existe un punto $\xi \in [a,b] $ tal que: \[ \sum\limits_{i=1}^{n}\alpha _{i} f(\xi _{i})=\left( \sum\limits_{i=1}^{n}\alpha _{i}\right) f(\xi ) \] \end{theorem} \underline{\textbf{NOTA:}} \textit{Obs\'{e}rvese que la f\'{o}rmula centrada que aproxima la derivada primera presenta un error de truncatura de segundo orden en tanto que las descentradas presentaban un error de primer orden. Ello nos indica que reducciones en el valor de }$h$\textit{\ conllevar\'{a}n una disminuci\'{o}n de error cometido con dichas f\'{o}rmulas que ser\'{a} mayor al usar la f\'{o}rmula centrada que las descentradas. Siendo esto as\'{\i}, conviene se\~{n}alar ya que no todo es el error de truncatura y que las f\'{o}rmulas centradas pueden tener un ``peor comportamiento'' (en un sentido que m\'{a}s adelante se matizar\'{a}) que las f\'{o}rmulas descentradas.} Al igual que se han obtenido las f\'{o}rmulas en diferencias que aproximan el valor de la primera derivada en un punto, podr\'{\i}amos obtener expresiones que aproximasen el valor de derivadas de \'{o}rdenes superiores. As\'{\i} por ejemplo si sumamos los desarrollos en serie: \[ u(x^{*}+h)=u(x^{*})+h\dis\frac{du}{dx}(x^{*})+\dis\frac{h^{2}}{2}\dis\frac{% d^{2}u}{dx^{2}}(x^{*})+\dis\frac{h^{3}}{6} \dis\frac{d^{3}u}{dx^{3}}(x^{*})+% \dis\frac{h^{4}}{24}\dis\frac{d^{4}u}{dx^{4}}(\xi ^{\prime }) \] \[ u(x^{*}-h)=u(x^{*})-h\dis\frac{du}{dx}(x^{*})+\dis\frac{h^{2}}{2}\dis\frac{% d^{2}u}{dx^{2}}(x^{*})-\dis\frac{h^{3}}{6}\dis\frac{d^{3}u}{dx^{3}}(x^{*})+% \dis\frac{h^{4}}{24}\dis\frac{d^{4}u}{dx^{4}}(\xi ") \] tendremos que: \[ u(x^{*}+h)+u(x^{*}-h)=2u(x^{*})+h^{2}\dis\frac{d^{2}u}{dx^{2}}% (x^{*})+\dis\frac{h^{4}}{24}\left( \dis\frac{d^{4}u}{dx^{4}}(\xi ^{\prime })+% \dis\frac{d^{4}u}{dx^{4}}(\xi ")\right) \] de donde se obtendr\'{\i}a una f\'{o}rmula en \textbf{diferencias finitas centrada} para aproximar la derivada segunda de la funci\'{o}n $u$ en el punto $x^{*}:$% \[ \dis\frac{d^{2}u}{dx^{2}}(x^{*})\approx \dis\frac{u(x^{*}-h)-2 u(x^{*})+u(x^{*}+h)}{h^{2}} \] en la que se comete un error de truncatura dado por: \[ E_{tr}=-\dis\frac{h^{2}}{12}\dis\frac{d^{4}u}{dx^{4}}(\xi )\rightarrow E_{tr}=O(h^{2}) \] Hasta aqu\'{\i} s\'{o}lo se han considerado desarrollos en serie de Taylor de los valores $u(x^{*}+h)$ y $u(x^{*}-h).$ Se podr\'{\i}an poner en juego desarrollos de los valores en otros puntos ($(x\pm 2 h),$ $(x\pm 3 h),$ .....) para obtener otras f\'{o}rmulas (centradas o descentradas) aproximando los valores de las derivadas (primeras, segundas, terceras, etc...) de la funci\'{o}n con diferentes soportes. \es \underline{\textbf{NOTA:}} \textit{De hecho las expresiones anteriores pueden obtenerse de otras formas distintas. Una de ellas es enmarcarlas dentro de la teor\'{\i}a de la interpolaci\'{o}n y obtenerlas como f\'{o}rmulas de derivaci\'{o}n num\'{e}rica, esto es, sustituyendo la derivada de orden }$m$\textit{\ de la funci\'{o}n }$u$\textit{\ en }$x^{*}$\textit{\ por la derivada de orden }$m$% \textit{\ en dicho punto del polinomio interpolador }$p(x)$\textit{\ de la funci\'{o}n }$u.$\textit{\ Cons\'{u}ltese para mayores detalles, por ejemplo, Conde \& Schiavi\footnote{C. Conde y E. Schiavi. (2000). Guiones de la asignatura de Elementos de Matem\'aticas. Universidad Rey Juan Carlos.}.} \underline{\textbf{Ejercicios propuestos:}} 1${{}^o}$) Obt\'{e}ngase la f\'{o}rmula de diferencias finitas: \[ \dis\frac{d^{2}u}{dx^{2}}(x^{*})\approx \] \[\dis\frac{-2 u(x^{*}-2 h)+32 u(x^{*}-h)-60u(x^{*})+32 u(x+h)-2 u(x+2h)}{24 h^{2}} \] y demu\'{e}strese que el error de truncatura de la misma es $O(h^{4}).$ 2${{}^o}$) Obt\'{e}ngase una f\'{o}rmula en diferencias finitas que permita aproximar $\dis\frac{du}{dx}(x^{*})$ haciendo intervenir los valores $% u(x^{*}-2h),$ $u(x^{*}-h),$ $u(x^{*}),$ $u(x^{*}+h)$ y $u(x^{*}+2h)$ y que sea de orden $O(h^{4}).$ 3${{}^o}$) Deducir la f\'{o}rmula: \begin{eqnarray*} \dis\frac{du}{dx}(x^{*}) &=&\dis\frac{1}{12 h}[-25 u(x^{*})+48 u(x^{*}+h)-36 u(x^{*}+2 h)+ \\ &&\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;\;+16 u(x^{*}+3 h)-3 u(x^{*}+4 h)] \end{eqnarray*} y encontrar la expresi\'{o}n de su error de truncatura. Cabe se\~{n}alar tambi\'{e}n que en los desarrollos utilizados en las expresiones anteriores se han considerado puntos que distaban de $x^{*}$ m\'{u}ltiplos enteros de $h.$ Ello en ocasiones no podr\'{a} ser as\'{\i} y deber\'{a}n considerarse ``soportes no equidistantes''. La forma de actuar con este tipo de soportes no diferir\'{a} de la antes presentada aunque, obviamente, estaremos conducidos a f\'{o}rmulas y expresiones del error diferentes. Por centrar las ideas, siendo $\gamma _{1}\;$y$\;\gamma _{2}$ dos n\'{u}meros estr\'{\i}ctamente positivos menores o iguales que $1,$ podemos considerar los desarrollos: \[ u(x^{*}+\gamma _{1} h)=u(x^{*})+\gamma _{1} h \dis\frac{du}{dx}% (x^{*})+\dis\frac{\gamma _{1}^{2}h^{2}}{2} \dis\frac{d^{2}u}{dx^{2}}% (x^{*})+\dis\frac{\gamma _{1}^{3} h^{3}}{6} \dis\frac{d^{3}u}{dx^{3}}(\xi ^{\prime }) \] \[ u(x^{*}-\gamma _{2}h)=u(x^{*})-\gamma _{2} h\dis\frac{du}{dx}% (x^{*})+\dis\frac{\gamma _{2}^{2} h^{2}}{2}\dis\frac{d^{2}u}{dx^{2}}% (x^{*})-\dis\frac{\gamma _{2}^{3} h^{3}}{6} \dis\frac{d^{3}u}{dx^{3}}(\xi ") \] Restando el segundo desarrollo del primero obtendremos: \[ u(x^{*}+\gamma _{1}h)-u(x^{*}-\gamma _{2} h)=(\gamma _{1}+\gamma _{2}) h \dis\frac{du}{dx}(x^{*})+\dis\frac{(\gamma _{1}^{2}-\gamma _{2}^{2}) h^{2}}{2} \dis\frac{d^{2}u}{dx^{2}}(x^{*})+ \] \[ +\dis\frac{(\gamma _{1}^{3}+\gamma _{2}^{3}) h^{3}}{6} \dis\frac{d^{3}u}{% dx^{3}}(\xi ") \] de donde \[ \dis\frac{du}{dx}(x^{*})\approx \dis\frac{u(x^{*}+\gamma _{1} h)-u(x^{*}-\gamma _{2} h)}{(\gamma _{1}+\gamma _{2})h} \] cometi\'{e}ndose un error de truncatura dado por: \[ E_{tr}=\dis\frac{(\gamma _{2}^{2}-\gamma _{1}^{2}) h}{2 (\gamma _{1}+\gamma _{2})} \dis\frac{d^{2}u}{dx^{2}}(x^{*})-\dis\frac{(\gamma _{1}^{3}+\gamma _{2}^{3})h^{2}}{6 (\gamma _{1}+\gamma _{2})} \dis\frac{d^{3}u}{dx^{3}}(\xi "). \] Se tiene as\'{\i} la correspondiente f\'{o}rmula centrada para aproximar la primera derivada pero que ahora ser\'{a} de orden $O(h)$ salvo que $\gamma _{1}=\gamma _{2}$ en cuyo caso ser\'{a} de orden $O(h^{2}).$ No obstante los mismos desarrollos podr\'{i}an haberse combinado de forma que se anularan los t\'{e}rminos en derivadas segundas. Para ello basta con restar a $\gamma _{2}^{2}$ veces el primer desarrollo $\gamma _{1}^{2}$ veces el segundo desarrollo, obteniendo en este caso: \[ \gamma _{2}^{2} u(x^{*}+\gamma _{1} h)-\gamma _{1}^{2} u(x^{*}-\gamma _{2} h)=(\gamma _{2}^{2} \gamma _{1}+\gamma _{1}^{2} \gamma _{2}) h \dis\frac{du}{dx}(x^{*})+ \] \[ +\dis\frac{(\gamma _{2}^{2} \gamma _{1}^{3}+\gamma _{1}^{2} \gamma _{2}^{3}) h^{3}}{6} \dis\frac{d^{3}u}{dx^{3}}(\xi ") \] de donde se obtendr\'{i}a la f\'{o}rmula en diferencias finitas: \[ \dis\frac{du}{dx}(x^{*})\approx \dis\frac{\gamma _{2}^{2} u(x^{*}+\gamma _{1} h)-\gamma _{1}^{2} u(x^{*}-\gamma _{2} h)}{(\gamma _{2}^{2} \gamma _{1}+\gamma _{1}^{2} \gamma _{2}) h} \] con un error de truncatura: \[ E_{tr}=-\dis\frac{(\gamma _{2}^{2} \gamma _{1}^{3}+\gamma _{1}^{2} \gamma _{2}^{3}) h^{2}}{6 (\gamma _{2}^{2} \gamma _{1}+\gamma _{1}^{2} \gamma _{2})} \dis\frac{d^{3}u}{dx^{3}}(\xi ") \] que ya es de orden $O(h^{2}).$ De forma similar podr\'{\i}a procederse para la aproximaci\'{o}n de derivadas de mayor orden. As\'{\i}, sumando $\gamma _{2}$ veces el primer desarrollo a $% \gamma _{1}$ veces el segundo desarrollo se obtendr\'{i}a: \[ \gamma _{2} u(x^{*}+\gamma _{1} h)+\gamma _{1} u(x^{*}-\gamma _{2} h)=(\gamma _{1}+\gamma _{2}) u(x^{*})+\dis\frac{(\gamma _{2} \gamma _{1}^{2}+\gamma _{1}\gamma _{2}^{2}) h^{2}}{2} \dis\frac{% d^{2}u}{dx^{2}}(x^{*})+ \] \[ +\dis\frac{(\gamma _{2} \gamma _{1}^{3}-\gamma _{1}\gamma _{2}^{3})h^{3}}{6}\dis\frac{d^{3}u}{dx^{3}}(\xi ) \] de donde se obtiene la f\'{o}rmula: \[ \dis\frac{d^{2}u}{dx^{2}}(x^{*})\approx 2 \dis\frac{\gamma _{2} u(x^{*}+\gamma _{1} h)-(\gamma _{1}+\gamma _{2}) u(x^{*})+\gamma _{1} u(x^{*}-\gamma _{2} h)}{(\gamma _{2} \gamma _{1}^{2}+\gamma _{1}\gamma _{2}^{2}) h^{2}} \] con la que se comete un error de truncatura: \[ E_{tr}=\dis\frac{(\gamma _{2} \gamma _{1}^{3}-\gamma _{1} \gamma _{2}^{3}) h}{3 (\gamma _{2} \gamma _{1}^{2}+\gamma _{1} \gamma _{2}^{2})}\dis\frac{d^{3}u}{dx^{3}}(\xi )\rightarrow E_{tr}=O(h) \] \subsubsection{B) Derivadas de funciones de varias variables.} La forma de proceder anterior puede extenderse al caso de funciones de varias variables. Por simplicidad nosotros la expondremos sobre funciones de $2$ variables y dejamos al lector la sencilla tarea de aplicar estos procedimientos a funciones de $3$ o m\'{a}s variables. Para ello, de forma similar a c\'{o}mo proced\'{\i}amos anteriormente, suponiendo la suficiente regularidad a nuestras funciones, y siendo $h>0$ y $k>0$ dos n\'{u}meros positivos consideraremos los desarrollos en serie: \[ u(x^{*}+h,y^{*})=u(x^{*},y^{*})+h \dis\frac{\partial u}{\partial x}% (x^{*},y^{*})+\dis\frac{h^{2}}{2} \dis\frac{\partial ^{2}u}{\partial x^{2}}% (x^{*},y^{*})+\dis\frac{h^{3}}{6} \dis\frac{\partial ^{3}u}{\partial x^{3}}% (x^{*},y^{*})+ \] \begin{equation} \label{1.1} c{h^{4}}{24} \dis\frac{\partial ^{4}u}{\partial x^{4}}% (x^{*},y^{*})+... \end{equation} \[ u(x^{*}-h,y^{*})=u(x^{*},y^{*})-h\dis\frac{\partial u}{\partial x}% (x^{*},y^{*})+\dis\frac{h^{2}}{2} \dis\frac{\partial ^{2}u}{\partial x^{2}}% (x^{*},y^{*})-\dis\frac{h^{3}}{6} \dis\frac{\partial ^{3}u}{\partial x^{3}}% (x^{*},y^{*})+ \] \begin{equation} \label{1.2} +\dis\frac{h^{4}}{24}\dis\frac{\partial ^{4}u}{\partial x^{4}}% (x^{*},y^{*})+... \end{equation} \[ u(x^{*},y^{*}+k)=u(x^{*},y^{*})+k\dis\frac{\partial u}{\partial y}% (x^{*},y^{*})+\dis\frac{k^{2}}{2}\dis\frac{\partial ^{2}u}{\partial y^{2}}% (x^{*},y^{*})+\dis\frac{k^{3}}{6}\dis\frac{\partial ^{3}u}{\partial y^{3}}% (x^{*},y^{*})+ \] \begin{equation} \label{1.3} +\dis\frac{k^{4}}{24} \dis\frac{\partial ^{4}u}{\partial y^{4}}% (x^{*},y^{*})+... \end{equation} \[ u(x^{*},y^{*}-k)=u(x^{*},y^{*})-k \dis\frac{\partial u}{\partial y}% (x^{*},y^{*})+\dis\frac{k^{2}}{2}\dis\frac{\partial ^{2}u}{\partial y^{2}}% (x^{*},y^{*})-\dis\frac{k^{3}}{6} \dis\frac{\partial ^{3}u}{\partial y^{3}}% (x^{*},y^{*})+ \] \begin{equation} \label{1.4} +\dis\frac{k^{4}}{24}\dis\frac{\partial ^{4}u}{\partial y^{4}}% (x^{*},y^{*})+... \end{equation} \[ u(x^{*}+h,y^{*}+k)=u(x^{*},y^{*})+h \dis\frac{\partial u}{\partial x}% (x^{*},y^{*})+k \dis\frac{\partial u}{\partial y}(x^{*},y^{*})+\dis\frac{h^{2}}{% 2} \dis\frac{\partial ^{2}u}{\partial x^{2}}(x^{*},y^{*})+ \] \[ +h k \dis\frac{\partial ^{2}u}{\partial x\partial y}(x^{*},y^{*})+% \dis\frac{k^{2}}{2}\dis\frac{\partial ^{2}u}{\partial y^{2}}(x^{*},y^{*})+% \dis\frac{h^{3}}{6} \dis\frac{\partial ^{3}u}{\partial x^{3}}(x^{*},y^{*})+% \dis\frac{h^{2} k}{2}\dis\frac{\partial ^{3}u}{\partial x^{2}\partial y}% (x^{*},y^{*})+ \] \begin{equation} \label{1.5} +\dis\frac{hk^{2}}{2} \dis\frac{\partial ^{3}u}{\partial x\partial y^{2}}% (x^{*},y^{*})+\dis\frac{k^{3}}{6} \dis\frac{\partial ^{3}u}{\partial y^{3}}% (x^{*},y^{*})+... \end{equation} \[ u(x^{*}+h,y^{*}-k)=u(x^{*},y^{*})+h\dis\frac{\partial u}{\partial x}% (x^{*},y^{*})-k\dis\frac{\partial u}{\partial y}(x^{*},y^{*})+\dis\frac{h^{2}}{% 2}\dis\frac{\partial ^{2}u}{\partial x^{2}}(x^{*},y^{*})+ \] \[ -hk\dis\frac{\partial ^{2}u}{\partial x\partial y}(x^{*},y^{*})+% \dis\frac{k^{2}}{2} \dis\frac{\partial ^{2}u}{\partial y^{2}}(x^{*},y^{*})+% \dis\frac{h^{3}}{6} \dis\frac{\partial ^{3}u}{\partial x^{3}}(x^{*},y^{*})-% \dis\frac{h^{2}k}{2} \dis\frac{\partial ^{3}u}{\partial x^{2}\partial y}% (x^{*},y^{*})+ \] \begin{equation} \label{1.6} +\dis\frac{h k^{2}}{2} \dis\frac{\partial ^{3}u}{\partial x\partial y^{2}}% (x^{*},y^{*})-\dis\frac{k^{3}}{6}\dis\frac{\partial ^{3}u}{\partial y^{3}}% (x^{*},y^{*})+... \end{equation} \[ u(x^{*}-h,y^{*}+k)=u(x^{*},y^{*})-h\dis\frac{\partial u}{\partial x}% (x^{*},y^{*})+k\dis\frac{\partial u}{\partial y}(x^{*},y^{*})+\dis\frac{h^{2}}{% 2}\dis\frac{\partial ^{2}u}{\partial x^{2}}(x^{*},y^{*})+ \] \[ -hk \dis\frac{\partial ^{2}u}{\partial x\partial y}(x^{*},y^{*})+% \dis\frac{k^{2}}{2} \dis\frac{\partial ^{2}u}{\partial y^{2}}(x^{*},y^{*})-% \dis\frac{h^{3}}{6}\dis\frac{\partial ^{3}u}{\partial x^{3}}(x^{*},y^{*})+% \dis\frac{h^{2} k}{2} \dis\frac{\partial ^{3}u}{\partial x^{2}\partial y}% (x^{*},y^{*})- \] \begin{equation} \label{1.7} -\dis\frac{h k^{2}}{2} \dis\frac{\partial ^{3}u}{\partial x\partial y^{2}}% (x^{*},y^{*})+\dis\frac{k^{3}}{6} \dis\frac{\partial ^{3}u}{\partial y^{3}}% (x^{*},y^{*})+... \end{equation} y \[ u(x^{*}-h,y^{*}-k)=u(x^{*},y^{*})-h\dis\frac{\partial u}{\partial x}% (x^{*},y^{*})-k\dis\frac{\partial u}{\partial y}(x^{*},y^{*})+\dis\frac{h^{2}}{% 2}\dis\frac{\partial ^{2}u}{\partial x^{2}}(x^{*},y^{*})+ \] \[ +hk \dis\frac{\partial ^{2}u}{\partial x\partial y}(x^{*},y^{*})+% \dis\frac{k^{2}}{2}\dis\frac{\partial ^{2}u}{\partial y^{2}}(x^{*},y^{*})-% \dis\frac{h^{3}}{6} \dis\frac{\partial ^{3}u}{\partial x^{3}}(x^{*},y^{*})-% \dis\frac{h^{2} k}{2} \dis\frac{\partial ^{3}u}{\partial x^{2}\partial y}% (x^{*},y^{*})- \] \begin{equation} \label{1.8} -\dis\frac{h k^{2}}{2} \dis\frac{\partial ^{3}u}{\partial x\partial y^{2}}% (x^{*},y^{*})-\dis\frac{k^{3}}{6} \dis\frac{\partial ^{3}u}{\partial y^{3}}% (x^{*},y^{*})+... \end{equation} La combinaci\'{o}n de los $8$ desarrollos anteriores nos puede conducir a muy diferentes formas de aproximar las derivadas parciales (de primer y segundo orden) de la funci\'{o}n $u(x,y)$ en el punto $(x^{*},y^{*}).$ En efecto, de la expresi\'{o}n (\ref{1.1}) podr\'{\i}a despejarse la primera derivada parcial de $u$ respecto a $x$ obteni\'{e}ndose: \begin{equation} \label{1.9} \dis\frac{\partial u}{\partial x}(x^{*},y^{*})\approx \dis\frac{% u(x^{*}+h,y^{*})-u(x^{*},y^{*})}{h} \end{equation} \textbf{f\'{o}rmula en diferencias finitas progresiva} que nos permite aproximar la derivada parcial respecto a $x$ de la funci\'{o}n $u$ en $% (x^{*},y^{*})$ con un error de truncatura: $$ E_{tr}=-\dis\frac{h}{2}\dis\frac{\partial ^{2}u}{\partial x^{2}}(\xi ,y^{*})\rightarrow E_{tr}=O(h). $$ De (\ref{1.2}) tambi\'{e}n podr\'{\i}a despejarse la derivada parcial respecto a $x$ obteniendo en este caso: \begin{equation} \label{1.10} \dis\frac{\partial u}{\partial x}(x^{*},y^{*})\approx \dis\frac{% u(x^{*},y^{*})-u(x^{*}-h,y^{*})}{h} \end{equation} \textbf{f\'{o}rmula en diferencias finitas regresiva} que nos permite aproximar la derivada parcial respecto a $x$ de la funci\'{o}n $u$ en $% (x^{*},y^{*})$ con un error de truncatura: $$ E_{tr}=\dis\frac{h}{2}\dis\frac{\partial ^{2}u}{\partial x^{2}}(\xi ,y^{*})\rightarrow E_{tr}=O(h). $$ Restando $(2)$ de $(1)$ obtendr\'{\i}amos la \textbf{f\'{o}rmula centrada}: \begin{equation} \label{1.11} \dis\frac{\partial u}{\partial x}(x^{*},y^{*})\approx \dis\frac{% u(x^{*}+h,y^{*})-u(x^{*}-h,y^{*})}{2 h} \end{equation} que tiene un error de truncatura dado por: $$ E_{tr}=-\dis\frac{h^{2}}{3}\dis\frac{\partial ^{3}u}{\partial x^{3}}(\xi ,y^{*})\rightarrow E_{tr}=O(h^{2}). $$ Haciendo las mismas operaciones con los desarrollos (\ref{1.3}) y (\ref{1.4}) se obtienen para aproximar la primera derivada parcial respecto a $y$ las f\'{o}rmulas y errores: \textbf{progresiva:} \begin{equation} \label{1.12} \dis\frac{\partial u}{\partial y}(x^{*},y^{*})\approx \dis\frac{% u(x^{*},y^{*}+k)-u(x^{*},y^{*})}{k} \end{equation} $$ E_{tr}=-\dis\frac{k}{2} \dis\frac{\partial ^{2}u}{\partial y^{2}}(x^{*},\zeta )\rightarrow E_{tr}=O(k) $$ \textbf{regresiva:} \begin{equation} \label{1.13} \dis\frac{\partial u}{\partial y}(x^{*},y^{*})\approx \dis\frac{% u(x^{*},y^{*})-u(x^{*},y^{*}-k)}{k} \end{equation} $$ E_{tr}=\dis\frac{k}{2}\cdot \dis\frac{\partial ^{2}u}{\partial y^{2}}(x^{*},\zeta )\rightarrow E_{tr}=O(k) $$ \textbf{centrada:} \begin{equation} \label{1.14} \dis\frac{\partial u}{\partial y}(x^{*},y^{*})\approx \dis\frac{% u(x^{*},y^{*}+k)-u(x^{*},y^{*}-k)}{2 k} \end{equation} $$ E_{tr}=-\dis\frac{k^{2}}{3} \dis\frac{\partial ^{3}u}{\partial y^{3}}% (x^{*},\zeta )\rightarrow E_{tr}=O(k^{2}).$$ Para aproximar la segunda derivada parcial de $u$ respecto a $x$ en el punto $(x^{*},y^{*})$ podr\'{\i}a, por ejemplo, sumarse (\ref{1.1}) y (\ref{1.2}) lo que nos conducir\'{\i}a a la f\'{o}rmula \textbf{centrada}: \begin{equation} \label{1.15} \dis\frac{\partial ^{2}u}{\partial x^{2}}(x^{*},y^{*})\approx \dis\frac{% u(x^{*}-h,y^{*})-2u(x^{*},y^{*})+u(x^{*}+h,y^{*})}{h^{2}} \end{equation} con la que se comete un error de truncatura: $$ E_{tr}=-\dis\frac{h^{2}}{12}\dis\frac{\partial ^{4}u}{\partial x^{4}}(\xi ,y^{*})\rightarrow E_{tr}=O(h^{2}). $$ Y sumando (\ref{1.3}) y (\ref{1.4}) se obtendr\'{\i}a: \begin{equation} \label{1.16} \dis\frac{\partial ^{2}u}{\partial y^{2}}(x^{*},y^{*})\approx \dis\frac{% u(x^{*},y^{*}-h)-2u(x^{*},y^{*})+u(x^{*},y^{*}+k)}{k^{2}} \end{equation} con la que se comete un error de truncatura: $$ E_{tr}=-\dis\frac{k^{2}}{12} \dis\frac{\partial ^{4}u}{\partial y^{4}}% (x^{*},\zeta )\rightarrow E_{tr}=O(k^{2}).$$ Y si se deseara aproximar la segunda derivada cruzada podr\'{\i}an, por ejemplo, sumarse (\ref{1.5}) y (\ref{1.8}) y a su resultado restarles (\ref{1.6}) y (\ref{1.7}). Ello nos conducir\'{\i}a a: \[ \dis\frac{\partial ^{2}u}{\partial x\partial y}(x^{*},y^{*})\approx \dis\frac{u(x^{*}+h,y^{*}+k)-u(x^{*}-h,y^{*}+k)}{ 4 h k} \] \[+\dis\frac{-u(x^{*}+h,y^{*}-k)+u(x^{*}-h,y^{*}-k)}{ 4 h k}\] con un error (se deja como ejercicio propuesto al lector el determinarlo) del orden: \[ E_{tr}=O(\dis\frac{h^{3}}{k},h^{2},hk,k^{2},\dis\frac{k^{3}}{h}) \] Obs\'{e}rvese que en esta \'{u}ltima expresi\'{o}n del orden del error intervienen distintos t\'{e}rminos y, entre ellos, aparecen las fracciones $% h^{3}/k$ y $k^{3}/h.$ Ello nos indica que reduciones del valor $h$ que no vayan acompa\~{n}adas de la correspondiente reducci\'{o}n del valor $k$ (o viceversa) pueden empeorar la aproximaci\'{o}n ralizada (pues $k^{3}/h$ crecer\'{a}). Obviamente muchas otras f\'{o}rmulas en diferencias finitas podr\'{\i}an construirse considerando puntos no equidistantes, otros puntos o combinando los desarrollos en serie de Taylor de formas diferentes a como se ha hecho m\'{a}s arriba. Algunas de estas f\'{o}rmulas las iremos presentando a lo largo del tema. Otras podr\'{a}n encontrarse en la bibliograf\'{\i}a que sobre el tema se cita. En todo caso, la aproximaci\'{o}n de los operadores diferenciales que intervienen en las EDP podr\'{a} hacerse ya combinando estas u otras f\'{o}rmulas en diferencias finitas. Pero no todas las f\'{o}rmas posibles de combinar distintas f\'{o}rmulas nos conducir\'{a}n a esquemas de c\'{a}lculo que tengan un buen comportamiento. Por ello, en los apartados siguientes, mostraremos la forma de proceder para analizar c\'{o}mo se comportan distintos algoritmos num\'{e}ricos que se obtienen de la combinaci\'{o}n de f\'{o}rmulas en diferencias finitas. \underline{\textbf{Ejercicios propuestos:}} 1${{}^o}$) Obt\'{e}n f\'{o}rmulas centradas y descentradas para aproximar las siguientes derivadas: \[ \dis\frac{\partial u}{\partial x}(x^{*},y^{*},z^{*}),\;\;\dis\frac{\partial u}{% \partial y}(x^{*},y^{*},z^{*}),\;\;\dis\frac{\partial u}{\partial z}% (x^{*},y^{*},z^{*}) \] basadas en los desarrollos de $u(x^{*}\pm \Delta x,y^{*},z^{*}),$ $% u(x^{*},y^{*}\pm \Delta y,z^{*})$ y $u(x^{*},y^{*},z^{*}\pm \Delta z)$ en torno al punto $(x^{*},y^{*},z^{*})$ Determina el error de trucamiento en cada una de ellas. 2${{}^o}$) Con los desarrollos anteriores y los correspondientes a: \[ u(x^{*}\pm \Delta x,y^{*}\pm \Delta y,z^{*}\pm \Delta z) \] deduce f\'{o}rmulas para aproximar las derivadas segundas de $u$ en $% (x^{*},y^{*},z^{*}),$ determinando el error de truncatura de cada una de ellas. \section{Aproximaci\'{o}n mediante esquemas en diferencias de problemas de transporte estacionarios.} \subsection{El problema de transporte estacionario en dominios unidimensionales.} \subsubsection{A) Problemas con coeficientes constantes y esquemas con mallados equidistantes.} Por centrar ideas comencemos considerando el siguiente problema: \emph{Siendo }$D$\emph{, }$V$\emph{\ y }$q$\emph{\ tres constantes conocidas y tales que }$D>0,$\emph{\ y siendo conocida la funci\'{o}n }$f(x)$\emph{\ y estando dados los valores }$u_{IZQ}$\emph{\ y }$u_{DER},$\emph{\ encontrar una funci\'{o}n }$u(x)$\emph{\ que verifique: } \[ \left\{ \begin{array}{lll} -D u^{''}(x)+V u^{\prime }(x)+q u(x) & =f(x), & 00$ con lo que $\rho =1$ (si la velocidad fuese negativa puedes realizar los desarrollos an\'{a}logos para comprobar la veracidad de la conclusi\'{o}n a la que lleguemos). En este caso: \[ \alpha =-\left( \dis\frac{D}{h^{2}}+\dis\frac{V}{h}\right) ,\;\;\;\;\beta =\left( \dis\frac{2 D}{h^{2}}+\dis\frac{V}{h}\right) ,\;\;\;\gamma =\left( -\dis\frac{D}{% h^{2}}\right) \] por lo que \[ a=\dis\frac{D+h V}{2D+h V},\;\;\;\;\;b=\dis\frac{D}{2D+h V } \] Obs\'{e}rvese que en este caso se verifica que: \[ a+b=1,\;\;\;0>D$ para no tener un n\'{u}mero ``excesivo'' de nodos) ser\'{a} m\'{a}s conveniente el uso del esquema (\ref{2.2}) para asegurar el cumplimiento del principio del m\'{a}ximo. \subsubsection{D) Tama\~{n}os de paso variables.} En ocasiones ser\'{a} conveniente no utilizar mallados equidistantes pues en el dominio de estudio pueden existir zonas en las que la soluci\'{o}n sea ``suave'' y zonas en las que presente cambios bruscos. Por ejemplo, en el problema antes considerado, cuando la velocidad tomaba valores elevados, la soluci\'{o}n era pr\'{a}cticamente nula en todo el dominio salvo en un entorno de la capa l\'{\i}mite. Podr\'{\i}a pensarse en ese caso en utilizar distancias ``grandes'' entre los primeros nodos y distancias ``peque\~{n}as'' entre los \'{u}ltimos. La forma de proceder en ese caso es an\'{a}loga a la antes considerada, si bien, como vimos en el apartado 1.2 de este cap\'{\i}tulo, las f\'{o}rmulas a emplear variar\'{a}n. M\'{a}s concretamente consideremos nuevamente el pro\-ble\-ma: \emph{Siendo }$D$\emph{, }$V$\emph{\ y }$q$\emph{\ tres constantes conocidas y tales que }$D>0,$\emph{\ y siendo conocida la funci\'{o}n }$f(x)$\emph{\ y estando dados los valores }$u_{IZQ}$\emph{\ y }$u_{DER},$\emph{\ encontrar una funci\'{o}n }$u(x)$\emph{\ que verifique: } \[ \left\{ \begin{array}{lll} -D u"(x)+Vu^{\prime }(x)+qu(x) & =f(x) & 00$ (es decir, $\rho =1$) se tendr\'{a} que: \[ a_{i}=\dis\frac{\dis\frac{2 \mu _{i} D}{(\mu _{i}+\mu _{i-1})}+V \mu _{i} h}{2 D+V \mu _{i} h} \] \[ b_{i}=\dis\frac{\dis\frac{2 \mu _{i-1} D}{(\mu _{i}+\mu _{i-1})}}{2 D+V \mu _{i} h} \] Puede observarse que ahora $00,$\textit{\ cuanto mayor sea la relaci\'{o}n }$V/D$\textit{\ m\'{a}s pr\'{o}ximo a }$1$\textit{\ ser\'{a} el valor de }$a_{i}$\textit{\ y m\'{a}s pr\'{o}ximo a }$0$\textit{\ el de }$% b_{i}.$\textit{\ En otros t\'{e}rminos, }$u_{i}$\textit{\ ser\'{a} m\'{a}s pr\'{o}ximo a }$u_{i-1}$\textit{\ cuanto mayor sea la relaci\'{o}n }$V/D.$% \textit{\ En el caso de que }$V<$\textit{\ }$0$\textit{\ puedes comprobar que es }$b_{i}$\textit{\ el coeficiente que m\'{a}s se acercar\'{a} al valor }$1$\textit{\ mientras que }$a_{i}$\textit{\ tender\'{a} hacia }$0.$ \es \underline{\textbf{Ejercicio propuesto:}} \es \textit{Deducir bajo qu\'{e} condiciones se verifica el principio del m\'{a}ximo para el esquema }(\ref{2.4})\textit{\ en el caso de que }$V<0.$ \subsubsection{E) Consideraci\'{o}n de coeficientes variables.} Consideremos ahora el caso de problemas de transporte estacionarios planteados en dominios unidimensionales pero con coeficientes no constantes. M\'{a}s concretamente consideremos el problema: \emph{Siendo }$D(x)$\emph{, }$\widetilde{V}(x)$\emph{\ y }$\widetilde{q}(x)$% \emph{\ tres funciones conocidas y tales que }$D(x)>0\;\;\forall x,$\emph{\ y siendo conocida la funci\'{o}n }$f(x)$\emph{\ y estando dados los valores }% $u_{IZQ}$\emph{\ y }$u_{DER},$\emph{\ encontrar una funci\'{o}n }$u(x)$\emph{% \ que verifique: } \[ \left\{ \begin{array}{lll} -\dis\frac{d}{dx}\left( D(x) u^{\prime }(x)\right) +\dis\frac{d}{dx}\left( \widetilde{V}(x) u(x)\right) +\widetilde{q}(x) u(x) & =f(x) & 0 restart;} \emph{ > with(linalg): with(plots):} \emph{ > Digits:=8;} \emph{ > NX:=20; LONG:=1.;} \emph{ > ub:=(x,y)->0.;} \emph{ > ud:=(x,y)->0.;} \emph{ > g:=(x,y)->x*x*(3*x+15*y)/(4*sqrt(2));} \emph{ > f:=(x,y)->x*x*(x*x-3*y*y)-30*x*y;} \emph{ > difusion1:=(x,y)->5; difusion2:=(x,y)->3;} \emph{ > v1:=(x,y)->-y; v2:=(x,y)->x;} \emph{ > reac:=(x,y)->0;} \emph{ > h:=LONG/NX;} \emph{ > NN:=(NX+2)*(NX+1)/2;} \emph{ > A:=array(sparse,1..NN,1..NN); b:=vector(NN);} \emph{ > for i from 1 to NX+1 by 1 do:} \emph{\ \ \ \ \ abscisa[i]:=(i-1)*h;} \emph{\ \ \ \ \ ordenada[i]:=(i-1)*h;} \emph{\ od;} \emph{ > k:=0:} \emph{\ for j from 1 to NX+1 by 1 do} \emph{\ \ \ \ \ \ for i from 1 to NX+2 - j by 1 do} \emph{\ \ \ \ \ \ \ \ \ k:=k+1:} \emph{\ \ \ \ \ \ \ \ \ \ x[k]:=abscisa[i]:} \emph{\ \ \ \ \ \ \ \ \ y[k]:=ordenada[j]:} \emph{\ \ \ \ \ od:} \emph{\ od:} \emph{ > print(k);} \emph{ > for k from 1 to NN by 1 do} \emph{\ \ \ \ \ print(k,x[k],y[k]);} \emph{\ \ od;} \emph{ > k:=0:} \emph{\ for j from 1 to NX+1 by 1 do} \emph{\ \ \ \ \ \ \ \ if j = 1 then} \emph{\ \ \ \ \ \ \ \ \ \ \ for i from 1 to NX+1 by 1 do} \emph{\ \ \ \ \ \ \ \ \ \ \ \ \ \ k:=k+1:} \emph{\ \ \ \ \ \ \ \ \ \ \ \ \ \ A[k,k]:=1.:} \emph{\ \ \ \ \ \ \ \ \ \ \ \ \ \ b[k]:=ub(x[k],y[k]):} \emph{\ \ \ \ \ \ \ \ \ \ \ od:} \emph{\ \ \ \ \ \ \ elif (j print(A);} \emph{ > print(b);} \emph{ > u:=(x,y)->$y*x^3$;} \emph{ > for k from 1 to NN by 1 do} \emph{\ \ \ \ \ uexac[k]:=evalf(u(x[k],y[k])):} \emph{\ od:} \emph{ > uap:=linsolve(A,b):} \emph{ > mayor:=0.;kpos:=0;} \emph{ > for k from 1 to NN by 1 do} \emph{\ \ \ \ \ difer[k]:=uexac[k]-uap[k]:} \emph{\ \ \ \ \ \ if (abs(difer[k])>mayor) then} \emph{\ \ \ \ \ \ \ \ \ mayor:=abs(difer[k]):} \emph{\ \ \ \ \ \ \ \ \ kpos:=k:} \emph{\ \ \ \ \ fi:} \emph{\ od:} \emph{ > for k from 1 to NN by 1 do} \emph{\ \ \ \ \ print(uap[k],uexac[k],difer[k]);} \emph{\ od;} \emph{ > print(kpos,x[kpos],y[kpos],uap[kpos],uexac[kpos],mayor);% } \emph{ > for k from 1 to NN by 1 do} \emph{\ \ \ \ \ \ print(uap[k],uexac[k],difer[k]);} \emph{\ od;} \emph{ > data:=[seq([x[k],y[k],uap[k]],k=1..NN)]:} \emph{ > k:=0:} \emph{\ \ for j from 1 to NX+1 by 1 do} \emph{\ \ \ \ \ for i from 1 to NX+2 - j by 1 do} \emph{\ \ \ \ \ \ \ \ k:=k+1:} \emph{\ \ \ \ \ \ \ \ datos[i,j]:=uap[k]:} \emph{\ \ \ \ \ od:} \emph{\ \ \ \ if j > 1 then} \emph{\ \ \ \ \ \ for i from NX+3-j to NX+1 by 1 do} \emph{\ \ \ \ \ \ \ \ \ datos[i,j]:=0.:} \emph{\ \ \ \ \ od:} \emph{\ \ \ fi:} \emph{\ od:} \emph{ > data:=[seq([seq([abscisa[i],ordenada[j],datos[i,j]],i=1..NX+1)],j=1..NX+1)]:} \emph{ >\ diba:=surfdata(data,axes=framed,labels=[x,y,z],orientation=[-31,52],}\newline \ \ \ \ \ \ \ \ \ \ \ \emph{title=`SOLUCI\'{O}N APROXIMADA (h = 0.05)`):} \emph{ > uuu:= proc(x,y) if y+x<=1 then $y*x^3$ else 0 fi: end;} \emph{ > dibe:=plot3d(uuu,0..1,0..1,grid=[20,20],axes=framed,}% \newline \ \ \ \ \ \ \ \ \ \ \ \emph{% labels=[x,y,z],orientation=[-31,52],title=`SOLUCI\'{O}N EXACTA`):} \emph{ > display(dibe);} \begin{figure} \centering \includegraphics[width=0.6\textwidth]{fig616.eps} %\caption{} %\label{figura1} \end{figure} \emph{ > display(diba);} \begin{figure} \centering \includegraphics[width=0.6\textwidth]{fig617.eps} %\caption{} %\label{figura1} \end{figure} \emph{ > fin;} En este caso la mayor diferencia entre los valores nodales de la soluci\'{o}n aproximada y de la soluci\'{o}n exacta se produce en el nodo $% 186$ de coordenadas $x_{186}=0.45,$ $y_{186}=0.55$ resultando que $% u_{186}=0.061088534$ y $u(0.45,0.55)=0.05011875$ por lo que $\left| u_{186}-u(0.45,0.55)\right| =0.010969784.$ \subsubsection{I) Algunos comentarios sobre los esquemas en diferencias para pro\-ble\-mas estacionarios.} 1${{}^{o}}$) Los esquemas que hemos presentado anteriormente son los m\'{a}s usuales y b\'{a}sicos. No obstante existen muchos otros esquemas en los que se hace intervenir en la discretizaci\'{o}n de la EDP en cada nodo a un cierto n\'{u}mero de nodos vecinos. En la bibliograf\'{\i}a a este tema encontrar\'{a}s referencias (como Lapidus y Pinder\footnote{L. Lapidus y G.F. Pinder.(1982) Numerical solution of partial differential equations in science and engineering. Ed.: John Wiley.}, Smith\footnote{G.D.\ Smith (1.985) Numerical Solution of partial Differential Equations. Finite Difference Methods. (3${{}^a}$ edici\'{o}n, 4${{}^a}$ reimpresi\'{o}n (1996)). Ed. Clarendon Press.}, Morton y Mayers\footnote{K.W. Morton y D.F. Mayers. (1994) Numerical solution of Partial Differential Equations. Ed. Cambridge University Press.}, etc...) en las que consultar muy diferentes esquemas en diferencias. 2${{}^o}$) Los esquemas en diferencias presentados se han obtenido a partir de la combinaci\'{o}n de desarrollos en serie de Taylor de los valores de una funci\'{o}n suficientemente regular en nodos vecinos a aquel en el que se plantea la EDP. Existen otras formas diferentes para obtener estos esquemas partiendo de ``formulaciones integrales'' del problema. En Morton y Mayers\footnote{K.W. Morton y D.F. Mayers. (1994) Numerical solutioon of Partial Differential Equations. Ed. Cambridge University Press.}, por ejemplo puedes encontrar detalles sobre esta forma de proceder. 3${{}^{o}}$) Los esquemas en diferencias finitas que permiten aproximar problemas estacionarios acaban formulando una ecuaci\'{o}n algebraica en cada nodo del mallado formando as\'{\i} un sistema con tantas ecuaciones como nodos y el mismo n\'{u}mero de inc\'{o}gnitas. A partir de ese momento, el problema consiste en resolver \textbf{de forma eficiente} el sistema algebraico obtenido. Adem\'{a}s, en cada una de las ecuaciones, todos los coeficientes de la ecuaci\'{o}n ser\'{a}n nulos salvo los que multipliquen a valores nodales correspondientes a nodos ``vecinos'' del nodo al que se asocie dicha ecuaci\'{o}n algebraica (entendiendo por ``vecinos'' aquellos que se utilizan para discretizar las derivadas en dicho nodo). En otros t\'{e}rminos la matriz del sistema algebraico tendr\'{a} la mayor parte de sus elementos nulos. Ello se expresar\'{a} diciendo que es una \textbf{% matriz hueca}. Esto plantea problemas tanto de almacenamiento (\textquestiondown para qu\'{e} almacenar los coeficientes que ``a priori'' se sabe que va a ser nulos) como de n\'{u}mero de operaciones (\textquestiondown para qu\'{e} vamos a sumar, restar o multiplicar valores que son nulos si sabemos de antemano que el resultado de esas operaciones va a ser $0?$). Todo lo anterior obliga a modificar los m\'{e}todos cl\'{a}sicos de resoluci\'{o}n de sistemas adapt\'{a}ndolos a esta situaci\'{o}n. Incluso, en la pr\'{a}ctica, es preferible el uso de t\'{e}cnicas iterativas de resoluci\'{o}n de sistemas lineales (tales como los m\'{e}todos de tipo gradiente o m\'{e}todos de relajaci\'{o}n) antes que los m\'{e}todos directos. Para el estudio de estos m\'{e}todos iterativos, que aqu\'{\i} no abordaremos, nuevamente te remitimos a la bibliograf\'{i}a indicada al final de este cap\'{\i}tulo (por ejemplo Smith\footnote{G.D.\ Smith (1.985) Numerical Solution of partial Differential Equations. Finite Difference Methods. (3${{}^a}$ edici\'{o}n, 4${{}^a}$ reimpresi\'{o}n (1996)). Ed. Clarendon Press.} o Morton y Mayers\footnote{K.W. Morton y D.F. Mayers. (1994) Numerical solutioon of Partial Differential Equations. Ed. Cambridge University Press.}, o Conde y Winter\footnote{C. Conde y G. Winter (1.991) M\'{e}todos y algoritmos b\'{a}sicos del \'{a}% lgebra num\'{e}rica. Ed. Revert\'{e}.}) para su estudio detallado. 4${{}^{o}}$) No hemos tratado problemas formulados en dominios tridimensionales. En todo caso la forma de proceder para deducirlos es an\'{a}loga y las propiedades vistas para los esquemas en dominios bidimensionales pueden extenderse sin dificultad a dominios tridimensionales. Lo \'{u}nico que sucede es que las f\'{o}rmulas obtenidas son un poco m\'{a}s pesadas de manipular. Es decir se incrementa el volumen de c\'{a}lculos a hacer pero la dificultad conceptual en 3 (o en general en n) dimensiones es la misma que en 2 dimensiones. 5${{}^o}$) Todos los ejemplos considerados anteriormente, as\'{\i} como el planteamiento de los esquemas presentados, han considerado s\'{o}lo el caso en que la e.d.p. a resolver era lineal. En el \'{u}ltimo ejemplo (desarrollado en el apartado $H)$ anterior) se consider\'{o} no obstante una condici\'{o}n de contorno no lineal (en donde la funci\'{o}n definida en el contorno $g$ depend\'{i}a de la propia inc\'{o}gnita $u$). En general podr\'{\i}an contemplarse problemas en los que tanto la difusividad como el campo de velocidades como el coeficiente del t\'{e}rmino reactivo as\'{\i} como las funciones que intervienen en la definici\'{o}n de las condiciones de contorno dependieran de la propia funci\'{o}n inc\'{o}gnita. En el caso bidimensional estar\'{\i}amos tratando problemas con una EDP de la forma: \[ -\dis\frac{\partial }{\partial x}\left( D_{1}(x,y,u) \dis\frac{\partial u}{% \partial x}(x,y)\right) -\dis\frac{\partial }{\partial y}\left( D_{2}(x,y,u) \dis\frac{\partial u}{\partial y}(x,y)\right) +\] \[\dis\frac{\partial }{\partial x}\left( V_{1}(x,y,u) u(x,y)\right) +\dis\frac{\partial }{\partial y}\left( V_{2}(x,y,u) u(x,y)\right) +q(x,y,u) u(x,y)=\] \[f(x,y,u),\;(x,y)\in \Omega \] Ahora no es tan simple proceder a ``manipular'' previamente nuestra ecuaci\'on y, en un primer planteamiento, puede procederse a discretizarla tal cual est\'{a} escrita sobre cada nodo $C$. As\'{\i}, utilizando la notaci\'{o}n antes introducida y con la aplicaci\'{o}n de f\'{o}rmulas centradas para los t\'{e}rminos difusivos y descentradas para los convectivos, para mallados uniformes, puede procederse como sigue: \[ -\dis\frac{\left( D_{1}(x,y,u) \dis\frac{\partial u}{\partial x}(x,y)\right) _{W}-\dis\frac{\partial }{\partial x}\left( D_{1}(x,y,u) \dis\frac{\partial u}{% \partial x}(x,y)\right) _{E}}{2 h}- \] \[ -\dis\frac{\left( D_{2}(x,y,u) \dis\frac{\partial u}{\partial x}(x,y)\right) _{N}-\dis\frac{\partial }{\partial x}\left( D_{2}(x,y,u) \dis\frac{\partial u}{% \partial x}(x,y)\right) _{S}}{2 k}+ \] \[ +\rho _{1} \dis\frac{\left( V_{1}(x,y,u) u(x,y)\right) _{C}-\left( V_{1}(x,y,u) u(x,y)\right) _{W}}{h}+ \] \[ +(1-\rho _{1}) \dis\frac{\left( V_{1}(x,y,u) u(x,y)\right) _{C}-\left( V_{1}(x,y,u) u(x,y)\right) _{W}}{h} \] \[ +\rho _{2} \dis\frac{\left( V_{2}(x,y,u) u(x,y)\right) _{C}-\left( V_{2}(x,y,u) u(x,y)\right) _{S}}{k}+ \] \[ +(1-\rho _{2}) \dis\frac{\left( V_{2}(x,y,u) u(x,y)\right) _{N}-\left( V_{2}(x,y,u) u(x,y)\right) _{C}}{k}+ \] \[ +q(x_{C},y_{C},u_{C})=f(x_{C},y_{C},u_{C}) \] en donde volviendo a aproximar las derivadas primeras que quedan en el t\'{e}rmino convectivo mediante f\'{o}rmulas descentradas, se obtiene: \[ -\dis\frac{D_{W}^{(1)}(u_{W}) \dis\frac{u_{C}-u_{W}}{h}-D_{E}^{(1)}(u_{E}) \dis\frac{u_{E}-u_{C}}{h}}{2 h}\] \[-\dis\frac{D_{N}^{(2)}(u_{N}) \dis\frac{% u_{N}-u_{C}}{k}-D_{S}^{(2)}(u_{S}) \dis\frac{u_{C}-u_{S}}{k}}{2 k}+ \] \[ +\rho _{1} \dis\frac{V_{C}^{(1)}(u_{C}) u_{C}-V_{W}^{(1)}(u_{W}) u_{W}}{h}+(1-\rho _{1}) \dis\frac{V_{E}^{(1)}(u_{E}) u_{E}-V_{C}^{(1)}(u_{C}) u_{C}}{h}+ \] \[ +\rho _{2} \dis\frac{V_{C}^{(2)}(u_{C}) u_{C}-V_{S}^{(2)}(u_{S}) u_{S}}{k}+(1-\rho _{2}) \dis\frac{V_{N}^{(2)}(u_{N}) u_{N}-V_{C}^{(2)}(u_{C}) u_{C}}{k}+ \] \[ +q_{C}(u_{C}) u_{C}=f_{C}(u_{C}) \] En la expresi\'{o}n anterior el super\'{\i}ndice de los coeficientes indica la componente que se considera, el sub\'{\i}ndice el punto $(x,y)$ en el que se eval\'{u}a y se ha dejado expl\'{\i}cita la dependencia respecto al propio valor nodal $(u_{C},$ $u_{S},$ $u_{W},$ $u_{E}$ o $u_{N})$ de los citados coeficientes. La expresi\'{o}n obtenida en cada nodo puede escribirse entonces de forma resumida como: \[ a_{C,S}(u_{S}) u_{S}+a_{C,W}(u_{W}) u_{W}+a_{C,C}(u_{S},u_{W},u_{C},u_{E},u_{N}) u_{C}+\] \[a_{C,E}(u_{E}) u_{E}+a_{C,N}(u_{N}) u_{N}=f_{C}(u_{C}) \] donde los coeficientes de la ecuaci\'{o}n dependen de los propios valores nodales que se tratan de resolver. En resumen, es una ecuaci\'{o}n no lineal. La consideraci\'{o}n de todas las ecuaciones algebraicas planteadas en los distintos nodos del mallado nos conduce de esta forma a un sistema de tantas ecuaciones e inc\'{o}gnitas como nodos haya en el mallado que podr\'{a} escribirse de la forma: \[ \left[ \mathbf{A}(\{\mathbf{u}\}\right] \{\mathbf{u}\}=\{\mathbf{b}(\{% \mathbf{u}\})\} \] Este es un sistema no lineal que deber\'{a} tratarse seg\'{u}n las t\'{e}cnicas analizadas en el primer cap\'{\i}tulo del libro. 6${{}^o}$) En algunos casos el tratamiento de dominios no rectangulares puede realizarse, de forma m\'{a}s c\'{o}moda que la relatada para el caso general, realizando un cambio de coordenadas.\ Es el caso, por ejemplo de trabajar sobre dominios circulares o el\'{\i}pticos en los que un cambio a coordenadas polares o el\'{\i}pticas puede simplificar el tratamiento num\'{e}rico de los problemas y mejorar la eficiacia de los esquemas utilizados. Puede consultarse, por ejemplo, Morton y Mayers\footnote{K.W. Morton y D.F. Mayers. (1994) Numerical solutioon of Partial Differential Equations. Ed. Cambridge University Press.} o Smith\footnote{G.D.\ Smith (1.985) Numerical Solution of partial Differential Equations. Finite Difference Methods. (3${{}^a}$ edici\'{o}n, 4${{}^a}$ reimpresi\'{o}n (1996)). Ed. Clarendon Press.} para un estudio detallado de esta forma de proceder. \section{Generalidades sobre el tratamiento de problemas evolutivos.} Siendo $u(x,y,t)$ una funci\'{o}n definida en $\overline{\Omega }\times [0,T]=\{\Omega \cup \partial \Omega \}\times [0,T]$ consideremos el problema evolutivo siguiente: \[ \left\{ \begin{array}{ll} \dis\frac{\partial \left( u\right) }{\partial t}-\nabla \bullet \left( \left[ \mathbf{D}\right] \nabla u\right) +\nabla \bullet \left( \overrightarrow{\mathbf{V}}u\right) +qu=f & (x,y)\in \Omega ,t\in (0,T) \\ u(x,y,t)=u_{D}(x,y,t) & (x,y)\in \partial \Omega ,t\in (0,T) \\ u(x,y,0)=u^{(0)}(x,y) & (x,y)\in \overline{\Omega } \end{array} \right\} \] cuya EDP escribiremos en forma abreviada como: \begin{equation} \label{3.1} \dis\frac{\partial u}{\partial t}=L(u) \end{equation} donde hemos denotado por: \begin{equation} \label{3.2} L(u)=f+\nabla \bullet \left( \left[ \mathbf{D}\right] \nabla u\right) -\nabla \bullet \left( \overrightarrow{\mathbf{V}}u\right) -qu. \end{equation} El tratamiento num\'{e}rico mediante diferencias finitas de este tipo de pro\-ble\-mas se fundamenta en dos pasos: en primer lugar se procede a realizar una \textbf{discretizaci\'{o}n temporal }del problema (\ref{3.1}) como si de un problema de valor inicial se tratase, es decir por alguna de las t\'{e}cnicas descritas en el cap\'{\i}tulo referente a la resoluci\'on de problemas de valor inicial, y tras ello se realiza una \textbf{discretizaci\'{o}n espacial} aproximando el operador diferencial (en derivadas espaciales) $L(u)$ dado por (\ref{3.2}) mediante un esquema en diferencias finitas como los esquemas planteados en el apartado anterior (u otros similares). Por ilustrar lo que se acaba de decir podr\'{\i}an considerarse diferentes instantes de c\'{a}lculo: \[ 0=t^{0}0 \\ [0.2cm] u(0,t) & =u_{I}(t)\;\;t>0, & u(L,t) & =u_{D}(t)\;\;\;t>0 \\ [0.2cm] u(x,0) & =u^{0}(x) & 0\leq x\leq L & \end{array} \right. \] donde supondremos que $D$ es una constante, que $u(x,t)$ es suficientemente regular y que, para evitar problemas de discontinuidades, $u_{I}(0)=u^{0}(0)$ y $u_{D}(0)=u^{0}(L).$ Consideremos adem\'{a}s un conjunto de valores de $t$ de la forma \[ t^{n}=n \Delta t\;\;\;\;\;\;(n=0,1,2,........) \] y dividamos el intervalo $[0,L]$ en $N$ subintervalos de la forma $% [x_{i},x_{i+1}]$ $(i=1,2,...,N)$ donde: \[ \Delta x=\dis\frac{L}{N}\;\;\;\;\;\text{y }\;\;\;\;x_{i}=(i-1) \Delta x\;\;\;\;\;(i=1,2,...,N) \] Denotaremos por $U_{i}^{n}=u(x_{i},t^{n})$ y por $u_{i}^{n}$ a una aproximaci\'{o}n del valor $u(x_{i},t^{n})$ obtenida me\-dian\-te alguno de los esquemas en diferencias finitas que a continuaci\'{o}n plantearemos. Obs\'{e}rvese que con esta notaci\'{o}n los valores $u_{i}^{0}\approx u(x_{i},0)=u^{0}(x_{i})$ ser\'{a}n conocidos a trav\'{e}s de la condici\'{o}n inicial del problema formulado anteriormente. Asimismo ser\'{a}n conocidos, a trav\'{e}s en este caso de las condiciones de contorno, los valores $u_{1}^{n}\approx u_{I}(t^{n})$ y $u_{N+1}^{n}\approx u_{D}(t^{n}).$ Planteemos un primer esquema expl\'{i}cito en diferencias finitas para obtener las aproximaciones $u_{i}^{n}$ de la soluci\'{o}n de nuestro problema. Para ello, de forma similar a como hac\'{\i}amos en el cap\'{\i}tulo anterior con el m\'etodo de Euler, puede aproximarse en el punto $% x_{i} $ y en un instante $t^{*}\in \left[ t^{n},t^{n+1}\right] $ la derivada temporal mediante: \[ \dis\frac{\partial u}{\partial t}(x_{i},t^{*})\approx \dis\frac{u_{i}^{n+1}-u_{i}^{n}% }{\Delta t} \] Con ello nuestra EDP puede aproximarse (semidiscretizada en tiempo) en el punto $x_{i}$ y en un instante de tiempo $t^{*}\in \left[ t^{n},t^{n+1}\right] $ por: \[ \dis\frac{u_{i}^{n+1}-u_{i}^{n}}{\Delta t}\approx D \dis\frac{\partial ^{2}u}{% \partial x^{2}}(x_{i},t^{*}) \] Seg\'{u}n se escoja el instante $t^{*}$ obtendremos un esquema expl\'{i}cito (si $t^{*}=t^{n},$ pues en ese caso la soluci\'{o}n $u_{i}^{n+1}$ se har\'{a} depender de la soluci\'{o}n, previamente calculada, en el instante $% t^{n}$) o impl\'{\i}cito (con cualquier otra elecci\'{o}n de $t^{*}$). Comencemos considerando por simplicidad el caso expl\'{\i}cito y ya nos ocuparemos de los esquemas impl\'{i}citos un poco m\'{a}s adelante. En esta situaci\'{o}n la ecuaci\'{o}n anterior se reescribe como: \[ \dis\frac{u_{i}^{n+1}-u_{i}^{n}}{\Delta t}\approx D \dis\frac{\partial ^{2}u}{% \partial x^{2}}(x_{i},t^{n}) \] y puede aproximarse la derivada espacial segunda mediante un esquema centrado resultando en este caso que: \[ \dis\frac{u_{i}^{n+1}-u_{i}^{n}}{\Delta t}=D \dis\frac{u_{i-1}^{n}-2 u_{i}^{n}+u_{i+1}^{n}}{(\Delta x)^{2}}\Rightarrow \] \begin{equation}\label{4.1} \Rightarrow u_{i}^{n+1}=D \alpha u_{i-1}^{n}+(1-2 D \alpha ) u_{i}^{n}+D \alpha u_{i+1}^{n}\end{equation} donde se ha llamado $\alpha =\dis\frac{\Delta t}{(\Delta x)^{2}}.$ Habida cuenta de que las aproximaciones iniciales se conocen y que las soluciones en el contorno tambi\'{e}n son conocidas, puede plantearse el siguiente esquema de c\'alculo expl\'{\i}cito: \emph{COMIENZO\ DEL\ ALGORITMO} \emph{Definir el mallado concretando el valor de }$\Delta t$\emph{\ y de }$% \Delta x$\emph{\ y de }$\{x_{i}\}_{i=1}^{N+1}$. \emph{Definir el valor de }$D$. \emph{\ }$\alpha \leftarrow \Delta t/(\Delta x)^{2}$ \emph{Evaluar }$u_{i}^{0}\dashleftarrow u^{0}(x_{i})\;\;\;\;(i=1,...,N+1)$ \emph{Para }$n=0,1,2,......$ \emph{Conocidos los valores }$\{u_{i}^{n}\}_{i=1}^{N+1}$ \emph{\ \ \ \ \ \ \ \ \ \ \ Para }$i=2$\emph{\ hasta }$i=N$\emph{\ con paso }% $1$\emph{\ hacer:} \emph{\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ }$u_{j}^{n+1}\leftarrow u_{i}^{n}+D \alpha (u_{i-1}^{n}-2 u_{i}^{n}+u_{i+1}^{n})$ \emph{\ \ \ \ \ \ \ \ \ \ \ Fin bucle en }$i.$ \emph{\ \ \ \ \ \ \ \ \ \ \ }$u_{1}^{n+1}\leftarrow u_{I}(t^{n+1})$, $u_{N+1}^{n+1}\leftarrow u_{D}(t^{n+1})$ \emph{Fin bucle en }$n.$ \emph{Escritura de resultados} \emph{FIN\ ALGORITMO.} Obs\'{e}rvese que el c\'{a}lculo del vector $\{\mathbf{u}^{n+1}\}$ conteniendo los valores nodales aproximados en el instante $t^{n+1}$ puede expresarse en la forma: $$ \{\mathbf{u}^{n+1}\}=[\mathbf{A}].\{\mathbf{u}^{n}\}+\{\mathbf{b}^{n}\} $$ donde $[\mathbf{A}]$ es una matriz de la forma: \begin{tiny} \[ \left[ \mathbf{A}\right] =\left[ \begin{array}{lllllllll} 0 & 0 & 0 & 0 & ... & 0 & 0 & 0 & 0 \\ D \alpha & (-2 D \alpha ) & D \alpha & 0 & ... & 0 & 0 & 0 & 0 \\ 0 & D \alpha & (-2 D \alpha ) & D \alpha & ... & 0 & 0 & 0 & 0 \\ 0 & 0 & D \alpha & (-2 D \alpha ) & ... & 0 & 0 & 0 & 0 \\ ... & ... & ... & ... & ... & ... & ... & ... & ... \\ ... & ... & ... & ... & ... & ... & ... & ... & ... \\ ... & ... & ... & ... & ... & ... & ... & ... & ... \\ 0 & 0 & 0 & 0 & ... & 0 & D \alpha & (-2 D \alpha ) & D \alpha \\ 0 & 0 & 0 & 0 & ... & 0 & 0 & 0 & 0 \end{array} \right] \] \end{tiny} y \[ \{\mathbf{b}^{n}\}=\left\{ u_{I}(t^{n+1}),\;\;0\;\;,0,\;\;................,\;0,\;u_{D}(t^{n+1})\right\} ^{T} \] \[ \{\mathbf{u}^{n}\}=\left\{ u_{1}^{n},u_{2}^{n},u_{3}^{n},................,u_{N}^{n},\;u_{N+1}^{n}\right% \} ^{T} \] Apliquemos este esquema a un ejemplo concreto tomado de Morton y Ma\-yers\footnote{K.W. Morton y D.F. Mayers. (1994) Numerical solution of Partial Differential Equations. Ed. Cambridge University Press.}. Sea el problema: \[ \left\{ \begin{array}{llll} \dis\frac{\partial u}{\partial t}(x,t) & =\dis\frac{\partial ^{2}u}{\partial x^{2}}% (x,t) & 00 \\ [0.2cm] u(0,t) & =0\;\;t>0, & u(L,t) & =0\;\;\;t>0 \\ [0.2cm] u(x,0) & =u^{0}(x) & 0\leq x\leq 1 & \end{array} \right. \] donde \[ u^{0}(x)=\left\{ \begin{array}{ll} 2 x & si\;\;x\leq 0.5 \\ 2 (1-x) & si\;\;x>0.5 \end{array} \right\} \] Consideremos una discretizaci\'{o}n espacial de tama\~{n}o de paso $0.05$ y apliquemos el esquema anterior con paso temporal $\Delta t=0.0012.$ Los resultados que se van obteniendo tras diferentes pasos de tiempo se recogen en las figuras siguientes (donde en trazo continuo se representa la soluci\'{o}n exacta y con puntos la soluci\'{o}n aproximada obtenida): \begin{figure} \centering \includegraphics[width=0.6\textwidth]{fig618.eps} %\caption{} %\label{figura1} \end{figure} \begin{figure} \centering \includegraphics[width=0.6\textwidth]{fig619.eps} %\caption{} %\label{figura1} \end{figure} \begin{figure} \centering \includegraphics[width=0.6\textwidth]{fig620.eps} %\caption{} %\label{figura1} \end{figure} \begin{figure} \centering \includegraphics[width=0.6\textwidth]{fig621.eps} %\caption{} %\label{figura1} \end{figure} \begin{figure} \centering \includegraphics[width=0.6\textwidth]{fig622.eps} %\caption{} %\label{figura1} \end{figure} Como vemos se aprecia una buena concordancia entre la soluci\'{o}n aproximada y soluci\'{o}n anal\'{i}tica. N\'{o}tese que en este caso $\alpha =\dis\frac{\Delta t}{(\Delta x)^{2}}$ $=$ $0.48.$ Incrementemos el paso temporal a $\Delta t=0.0013$ (con lo que $\alpha =% \dis\frac{\Delta t}{(\Delta x)^{2}}=0.52)$ y representemos las soluciones (v\'eanse las figuras de la p\'agina siguiente). \begin{figure} \centering \includegraphics[width=0.6\textwidth]{fig623.eps} %\caption{} %\label{figura1} \end{figure} \begin{figure} \centering \includegraphics[width=0.6\textwidth]{fig624.eps} %\caption{} %\label{figura1} \end{figure} \begin{figure} \centering \includegraphics[width=0.6\textwidth]{fig625.eps} %\caption{} %\label{figura1} \end{figure} \begin{figure} \centering \includegraphics[width=0.6\textwidth]{fig626.eps} %\caption{} %\label{figura1} \end{figure} Bast\'{o} un peque\~{n}o incremento en el paso de tiempo para que el esquema se volviese inestable. Puede pensarse (err\'{o}neamente) que el motivo de ello se debe simplemente a estar utilizando una discretizaci\'{o}n m\'{a}s grosera que en el caso anterior. En efecto, repitamos el proceso manteniendo el paso de discretizaci\'{o}n temporal del primer caso, es decir trabajando con $\Delta t=0.0012$ y con una discretizaci\'{o}n m\'{a}s fina espacialmente, con $\Delta x=0.04.$ A priori podr\'{\i}a pensarse que los resultados obtenidos deber\'{\i}an ser tan ``buenos'' al menos como los obtenidos en el primer caso. Y sin embargo las gr\'{a}ficas que se obtienen son las siguientes: \begin{figure} \centering \includegraphics[width=0.6\textwidth]{fig627.eps} %\caption{} %\label{figura1} \end{figure} \begin{figure} \centering \includegraphics[width=0.6\textwidth]{fig628.eps} %\caption{} %\label{figura1} \end{figure} \begin{figure} \centering \includegraphics[width=0.6\textwidth]{fig629.eps} %\caption{} %\label{figura1} \end{figure} \begin{figure} \centering \includegraphics[width=0.6\textwidth]{fig630.eps} %\caption{} %\label{figura1} \end{figure} Todav\'{\i}a peor que en el segundo caso (observa que las soluciones mostradas han sido calculadas en un n\'{u}mero de pasos temporales menor que en el segundo caso). Y esto parece un contrasentido: \textexclamdown discretizamos m\'{a}s fino y el esquema funciona peor!. Pero tiene su explicaci\'{o}n como m\'{a}s adelante demostraremos. De hecho, como luego justificaremos, la estabilidad de este esquema no est\'{a} gobernada por el tama\~{n}o de paso de discretizaci\'{o}n sino por la relaci\'{o}n $\alpha =\Delta t/(\Delta x)^{2}$ de tal forma que para $\alpha >1/2$ el esquema se hace inestable. Y en este tercer caso $\alpha =\dis\frac{\Delta t}{(\Delta x)^{2}% }=0.75.$ En otros t\'{e}rminos, el \textbf{refinar la discretizaci\'{o}n disminuyendo }$\Delta t$\textbf{\ e }$\Delta x$\textbf{\ mejora la soluci\'{o}n siempre y cuando se verifique que }$\alpha =\Delta t/(\Delta x)^{2}\leq 0.5.$ Una alternativa a lo anterior consiste en buscar un m\'{e}todo de discretizaci\'{o}n temporal un poco m\'{a}s sofisiticado que el m\'{e}todo de Euler expl\'{i}cito. Por e\-jem\-plo, podr\'{\i}a pensarse en un $\theta $% -esquema. Ello nos conducir\'{\i}a a la siguiente ecuaci\'{o}n discretizada temporalmente: \[ \dis\frac{u_{i}^{n+1}-u_{i}^{n}}{\Delta t}\approx \theta D \dis\frac{% \partial ^{2}u}{\partial x^{2}}(x_{i},t^{n+1}) +(1-\theta ) \dis\frac{\partial ^{2}u}{\partial x^{2}}(x_{i},t^{n}) \] y aproximando la derivada espacial segunda mediante un esquema centrado resulta en este caso que: \[ \dis\frac{u_{i}^{n+1}-u_{i}^{n}}{\Delta t}=(1-\theta ) D \dis\frac{% u_{i-1}^{n}-2 u_{i}^{n}+u_{i+1}^{n}}{(\Delta x)^{2}}\] \[+\theta D \dis\frac{u_{i-1}^{n+1}-2 u_{i}^{n+1}+u_{i+1}^{n+1}}{(\Delta x)^{2}}% \Rightarrow \] \[ \Rightarrow -\theta D \alpha u_{i-1}^{n+1}+(1+2 \theta D \alpha ) u_{i}^{n+1}-\theta D \alpha u_{i+1}^{n+1}= \] \[ (1-\theta ) D \alpha u_{i-1}^{n}+(1-2 (1-\theta ) D \alpha ) u_{i}^{n} +(1-\theta ) D \alpha u_{i+1}^{n}, \] donde nuevamente se ha designado por $\alpha =\Delta t/(\Delta x^{2}).$ Obs\'{e}rvese que en este caso la expresi\'{o}n anterior por s\'{\i} sola no nos permite obtener una aproximaci\'{o}n del valor de $u_{i}^{n+1}$ a partir de los valores de $u_{j}^{n}$ $(j=1,....,$ $N+1).$ Ser\'{a} el conjunto de todas las ecuaciones que se puedan plantear sobre los distintos nodos del mallado las que formen un sistema de ecuaciones que, una vez resuelto, nos proporcione los valores nodales de la soluci\'{o}n en el instante $t^{n+1.}$ M\'{a}s concretamente, reescribamos la ecuaci\'{o}n en la forma: \[ a_{i,i-1} u_{i-1}^{n+1}+a_{i,i} u_{i}^{n+1}+a_{i,i+1} u_{i+1}^{n+1}\] \[=b_{i,i-1} u_{i-1}^{n}+b_{i,i} u_{i}^{n}+b_{i,i+1} u_{i+1}^{n} \] donde \[ a_{i,i-1}=a_{i,i+1}=-\theta D \alpha ,\;\;\;a_{i,i}=(1+2 \theta D \alpha ) \] \[ b_{i,i-1}=b_{i,i+1}=(1-\theta ) D \alpha ,\;\;\;\;b_{i,i}=(1-2 (1-\theta ) D \alpha ) \] Con ello el conjunto de ecuaciones que pueden plantearse (incluyendo como primera ecuaci\'{o}n la que da valor a $u_{1}^{n+1}$ mediante la condici\'{o}n de contorno en $x=0$ y como \'{u}ltima la que da valor a $u_{N+1}^{n+1}$ a trav\'{e}s de la condici\'{o}n de contorno en $x=L$) forma el sistema: \[ \lbrack \mathbf{A}] \{\mathbf{u}^{n+1}\}=[\mathbf{B}]\{\mathbf{u}% ^{n}\}+\{\mathbf{c}^{n}\} \] donde $[\mathbf{A}]$ es una matriz de la forma: \[ \left[ \mathbf{A}\right] =\left[ \begin{array}{lllllllll} 1 & 0 & 0 & 0 & ... & 0 & 0 & 0 & 0 \\ a_{2,1} & a_{2,2} & a_{2,3} & 0 & ... & 0 & 0 & 0 & 0 \\ 0 & a_{3,2} & a_{3,3} & a_{3,4} & ... & 0 & 0 & 0 & 0 \\ 0 & 0 & a_{4,3} & a_{4,4} & ... & 0 & 0 & 0 & 0 \\ ... & ... & ... & ... & ... & ... & ... & ... & ... \\ ... & ... & ... & ... & ... & ... & ... & ... & ... \\ ... & ... & ... & ... & ... & ... & ... & ... & ... \\ 0 & 0 & 0 & 0 & ... & 0 & a_{N,N-1} & a_{N,N} & a_{N,N+1} \\ 0 & 0 & 0 & 0 & ... & 0 & 0 & 0 & 1 \end{array} \right] \] \[ \left[ \mathbf{B}\right] =\left[ \begin{array}{lllllllll} 0 & 0 & 0 & 0 & ... & 0 & 0 & 0 & 0 \\ b_{2,1} & b_{2,2} & b_{2,3} & 0 & ... & 0 & 0 & 0 & 0 \\ 0 & b_{3,2} & b_{3,3} & b_{3,4} & ... & 0 & 0 & 0 & 0 \\ 0 & 0 & b_{4,3} & b_{4,4} & ... & 0 & 0 & 0 & 0 \\ ... & ... & ... & ... & ... & ... & ... & ... & ... \\ ... & ... & ... & ... & ... & ... & ... & ... & ... \\ ... & ... & ... & ... & ... & ... & ... & ... & ... \\ 0 & 0 & 0 & 0 & ... & 0 & b_{N,N-1} & b_{N,N} & b_{N,N+1} \\ 0 & 0 & 0 & 0 & ... & 0 & 0 & 0 & 0 \end{array} \right] \] y \[ \{\mathbf{c}^{n}\}=\{u_{I}(t^{n+1}),\;\;0\;\;,0,\;\;................,\;0,% \;u_{D}(t^{n+1})\}^{T} \] \[ \{\mathbf{u}^{n}\}=\left\{ u_{1}^{n},u_{2}^{n},u_{3}^{n},................,u_{N}^{n},\;u_{N+1}^{n}\right% \} ^{T} \] La resoluci\'{o}n del sistema anterior nos proporcionar\'{a} los valores nodales de la soluci\'{o}n en el instante $t^{n+1}.$ Obs\'{e}vese que una ligera manipulaci\'{o}n del sistema lineal anteriormente escrito nos conduce a que: \[ \lbrack \mathbf{A}] \{\mathbf{u}^{n+1}\}=[\mathbf{B}]\{\mathbf{u}% ^{n}\}+\{\mathbf{c}^{n}\}\Rightarrow \{\mathbf{u}^{n+1}\}=[\mathbf{A}% ]^{-1} [\mathbf{B}]\{\mathbf{u}^{n}\}+[\mathbf{A}]^{-1} \{\mathbf{% c}^{n}\}\Rightarrow \] \[ \Rightarrow \{\mathbf{u}^{n+1}\}=[\mathbf{M}]\{\mathbf{u}^{n}\}+\{\mathbf{r}% ^{n}\} \] Seg\'{u}n lo anterior un algoritmo que nos permite resolver problemas difusivos como el antes planteado mediante este m\'{e}todo consistir\'{\i}a en: \emph{COMIENZO\ DEL\ ALGORITMO} \emph{Definir el mallado concretando el valor de }$\Delta t$\emph{\ y de }$% \Delta x$\emph{\ y de }$\{x_{i}\}_{i=1}^{N+1}$ \emph{Definir el valor de }$D$ \emph{y del par\'{a}metro} $\theta .$ \emph{\ }$\alpha \leftarrow \Delta t/(\Delta x)^{2}$ \emph{Evaluar }$u_{i}^{0}\dashleftarrow u^{0}(x_{i})\;\;\;\;(i=1,...,N+1)$ \emph{Asignar: } \[ \lbrack \mathbf{A}]\leftarrow [\mathbf{0}],\;\;\;\;[\mathbf{B}]\leftarrow [% \mathbf{0}] \] \emph{Para }$i=2$\emph{\ hasta }$i=N,$\emph{\ con paso }$1$\emph{\ hacer:} \[ A(i,i-1)\leftarrow -\theta D \alpha ,\;A(i,i)\leftarrow (1+2 \theta D \alpha ),\;A(i,i+1)\leftarrow -\theta D \alpha \] \[ B(i,i-1)\leftarrow (1-\theta ) D \alpha ,\;B(i,i)\leftarrow (1-2 (1-\theta ) D \alpha ),\;B(i,i+1)\leftarrow (1-\theta ) D \alpha \] \emph{Fin bucle en }$i.$\newline $A(1,1)\leftarrow 1,\;\;\;\;A(N+1,N+1)\leftarrow 1$ \emph{Para }$n=0,1,2,......$ \emph{\ \ \ \ \ Conocidos los valores }$\{u_{i}^{n}\}_{i=1}^{N+1}$\emph{\ } \emph{\ \ \ \ \ \ \ \ \ \ \ Para }$i=2$\emph{\ hasta }$i=N$\emph{\ con paso }% $1$\emph{\ hacer:} \emph{\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ }$r_{i}\leftarrow B(i,i-1) u_{i-1}^{n}+B(i,i) u_{i}^{n}+B(i,i+1) u_{i+1}^{n}$ \emph{\ \ \ \ \ \ \ \ \ \ \ Fin bucle en }$i.$ \emph{\ \ \ \ \ \ \ \ \ \ \ }$r_{1}\leftarrow u_{I}(t^{n+1})$ \emph{\ \ \ \ \ \ \ \ \ \ \ }$r_{N+1}\leftarrow u_{D}(t^{n+1})$ \ \ \ \ \ \ \ \emph{Resolver el sistema lineal} $[\mathbf{A}] \{\mathbf{% u}^{n+1}\}=\{\mathbf{r}\}$ \emph{Fin bucle en }$n.$ \emph{Escritura de resultados} \emph{FIN\ ALGORITMO.} El comportamiento de estos esquemas depender\'{a} del valor que asignemos al par\'{a}metro $\theta .$ Te dejamos como ejercicio propuesto el construir un procedimiento en MAPLE (o en cualquier lenguaje de programaci\'{o}n que prefieras) y analizar experimentalmente el comportamiento de estos esquemas. Nosotros lo aplicaremos un poco m\'{a}s adelante a la resoluci\'{o}n de alg\'{u}n ejemplo. Pero previamente realicemos un an\'{a}lisis de estos m\'{e}todos para conocer con qu\'{e} valores de los par\'{a}metros nos interesar\'{a} ``jugar''. \es \underline{\textbf{NOTA:}} \emph{Obs\'{e}rvese que el esquema expl\'{\i}cito inicialmente planteado es un caso particular de los $\theta $ -esquemas que acabamos de considerar en el que a $\theta $ se le asigna el valor $\theta =0.$} \subsection{Consistencia de los esquemas.} Obviamente los valores nodales de la soluci\'{o}n aproximada que se encuentren en un instante de tiempo satisfacer\'{a}n la expresi\'{o}n mediante la cual han sido evaluados, es decir, utilizando la notaci\'{o}n introducida en el apartado anterior: \[ a_{i,i-1} u_{i-1}^{n+1}+a_{i,i} u_{i}^{n+1}+a_{i,i+1} u_{i+1}^{n+1}=b_{i,i-1} u_{i-1}^{n}+b_{i,i} u_{i}^{n}+b_{i,i+1} u_{i+1}^{n} \] o lo que es lo mismo: \[ a_{i,i-1} u_{i-1}^{n+1}+a_{i,i} u_{i}^{n+1}+a_{i,i+1} u_{i+1}^{n+1}-\left( b_{i,i-1} u_{i-1}^{n}+b_{i,i} u_{i}^{n}+b_{i,i+1} u_{i+1}^{n}\right) =0 \] Pero la soluci\'{o}n anal\'{\i}tica (exacta) no tiene por qu\'{e} satisfacer en cada nodo $x_{i}$ e instante de c\'{a}lculo $t^{n}$ la igualdad anterior. En general para la soluci\'{o}n anal\'{\i}tica se verificar\'{a} que: \[ E_{i}^{n+1}=a_{i,i-1} U_{i-1}^{n+1}+a_{i,i} U_{i}^{n+1}+a_{i,i+1} U_{i+1}^{n+1}-\left( b_{i,i-1} U_{i-1}^{n}+b_{i,i} U_{i}^{n}+b_{i,i+1} U_{i+1}^{n}\right) \] donde como ya se se\~{n}al\'{o} anteriormente se ha denotado por $% U_{i}^{n}=u(x_{i},t^{n}).$ Ello, de forma an\'{a}loga a lo que se dijo para los problemas estacionarios, nos permite introducir un primer concepto sobre los errores del m\'{e}todo en diferencias: \begin{definition} Se denomina \textbf{error de consistencia} del esquema en el instante $% t^{n+1}$ y en el nodo $x_{i}$ al valor $E_{i}^{n+1}$ dado por: \[ E_{i}^{n+1}=a_{i,i-1} U_{i-1}^{n+1}+a_{i,i} U_{i}^{n+1}+a_{i,i+1} U_{i+1}^{n+1}-\left( b_{i,i-1} U_{i-1}^{n}+b_{i,i} U_{i}^{n}+b_{i,i+1} U_{i+1}^{n}\right). \]\end{definition} En este sentido, adem\'{a}s, se dir\'{a} que un m\'{e}todo es \textbf{% consistente} cuando, al hacer tender $\Delta t$ e $\Delta x$ hacia cero los errores de consistencia tambi\'{e}n tiendan hacia $0.$ \es El an\'{a}lisis de la consistencia de un m\'{e}todo num\'{e}rico en diferencias finitas suele realizarse me\-dian\-te el uso de desarrollos en serie de Taylor, de tal forma que el orden al que aparecen elevados $\Delta t$ e $% \Delta x$ en el error de truncamiento de los desarrollos nos marca lo que se denomina el \textbf{orden de consistencia} (local) del m\'{e}todo. Examinemos sobre los $\theta $ -m\'{e}todos antes planteados el orden de consistencia. Para ello, puesto que el esquema se plantea en el intervalo temporal $[t^{n},t^{n+1}]$ debe elegirse un isntante en torno al cual desarrollar las funciones en serie de Taylor. El resultado final ser\'{a} el mismo sea cual sea el instante elegido pero la laboriosidad de los c\'{a}lculos a realizar puede verse determinada por la elecci\'{o}n que hagamos. En el caso de los $\theta $-m\'{e}todos es c\'{o}modo tomar como tal instante el instante medio que denotaremos como $% t^{n+1/2}=(t^{n}+t^{n+1})/2. $ Con esta elecci\'{o}n pueden considerarse los siguientes desarrollos en serie de Taylor: \[ U_{i}^{n+1}=U_{i}^{n+1/2}+\dis\frac{1}{2} \Delta t \dis\frac{\partial u}{% \partial t}(x_{i},t^{n+1/2})+\dis\frac{1}{8} (\Delta t)^{2} \dis\frac{% \partial ^{2}u}{\partial t^{2}}(x_{i},t^{n+1/2})+ \] \[ +\dis\frac{1}{48} (\Delta t)^{3} \dis\frac{\partial ^{3}u}{\partial t^{3}}% (x_{i},t^{n+1/2})+... \] \[ U_{i}^{n}=U_{i}^{n+1/2}-\dis\frac{1}{2} \Delta t \dis\frac{\partial u}{% \partial t}(x_{i},t^{n+1/2})+\dis\frac{1}{8} (\Delta t)^{2} \dis\frac{% \partial ^{2}u}{\partial t^{2}}(x_{i},t^{n+1/2})- \] \[ -\dis\frac{1}{48} (\Delta t)^{3} \dis\frac{\partial ^{3}u}{\partial t^{3}}% (x_{i},t^{n+1/2})+... \] de donde \[ \dis\frac{U_{i}^{n+1}-U_{i}^{n}}{\Delta t}=\dis\frac{\partial u}{\partial t}% (x_{i},t^{n+1/2})+\dis\frac{1}{24} (\Delta t)^{2} \dis\frac{\partial ^{3}u% }{\partial t^{3}}(x_{i},t^{n+1/2})+... \] An\'{a}logamente: \[ \dis\frac{U_{i}^{n+1}-2 U_{i}^{n+1}+U_{i+1}^{n+1}}{\Delta x^{2}}=\dis\frac{% \partial ^{2}u}{\partial x^{2}}(x_{i},t^{n+1})+\dis\frac{1}{12} (\Delta x)^{2} \dis\frac{\partial ^{4}u}{\partial x^{4}}(x_{i},t^{n+1})+ \] \[ +\dis\frac{1}{360} (\Delta x)^{4} \dis\frac{\partial ^{6}u}{\partial t^{6}}% (x_{i},t^{n+1})+...= \] \[ =\left( \dis\frac{\partial ^{2}u}{\partial x^{2}}(x_{i},t^{n+1/2})+\dis\frac{\Delta t% }{2} \dis\frac{\partial ^{3}u}{\partial t\partial x^{2}}(x_{i},t^{n+1/2})+% \dis\frac{\left( \Delta t\right) ^{2}}{8} \dis\frac{\partial ^{4}u}{\partial t^{2}\partial x^{2}}(x_{i},t^{n+1/2})+...\right) + \] \[ \dis\frac{(\Delta x)^{2}}{12} \left( \dis\frac{\partial ^{4}u}{\partial x^{4}}% (x_{i},t^{n+1/2})+\dis\frac{\Delta t}{2} \dis\frac{\partial ^{5}u}{\partial t\partial x^{4}}(x_{i},t^{n+1/2})+\dis\frac{\left( \Delta t\right) ^{2}}{8} \dis\frac{\partial ^{6}u}{\partial t^{2}\partial x^{4}}(x_{i},t^{n+1/2})+...% \right) + \] \[ \dis\frac{(\Delta x)^{4}}{360} \left( \dis\frac{\partial ^{6}u}{\partial x^{6}}% (x_{i},t^{n+1/2})+\dis\frac{\Delta t}{2} \dis\frac{\partial ^{7}u}{\partial t\partial x^{6}}(x_{i},t^{n+1/2})+\dis\frac{\left( \Delta t\right) ^{2}}{8} \dis\frac{\partial ^{8}u}{\partial t^{2}\partial x^{6}}(x_{i},t^{n+1/2})+...% \right) +... \] \[ =\left[ \dis\frac{\partial ^{2}u}{\partial x^{2}}(x_{i},t^{n+1/2})+\dis\frac{(\Delta x)^{2}}{12} \dis\frac{\partial ^{4}u}{\partial x^{4}}(x_{i},t^{n+1/2})+% \dis\frac{(\Delta x)^{4}}{360} \dis\frac{\partial ^{6}u}{\partial x^{6}}% (x_{i},t^{n+1/2})+...\right] + \] \[ \dis\frac{\Delta t}{2} \left[ \dis\frac{\partial ^{3}u}{\partial t\partial x^{2}}(x_{i},t^{n+1/2})+\dis\frac{(\Delta x)^{2}}{12} \dis\frac{\partial ^{5}u}{% \partial t\partial x^{4}}(x_{i},t^{n+1/2})+\dis\frac{(\Delta x)^{4}}{360} \dis\frac{\partial ^{7}u}{\partial t\partial x^{6}}(x_{i},t^{n+1/2})+...\right] + \] \[ +\dis\frac{\left( \Delta t\right) ^{2}}{8} \left[ \dis\frac{\partial ^{4}u}{% \partial t^{2}\partial x^{2}}(x_{i},t^{n+1/2})+\dis\frac{(\Delta x)^{2}}{12}% \dis\frac{\partial ^{6}u}{\partial t^{2}\partial x^{4}}(x_{i},t^{n+1/2})\right]+\] \[\dis\frac{\left( \Delta t\right) ^{2}}{8} \left[ \dis\frac{(\Delta x)^{4}}{360} \dis\frac{\partial ^{8}u}{\partial t^{2}\partial x^{6}}(x_{i},t^{n+1/2})+...\right] +... \] Y del mismo modo: \[ \dis\frac{U_{i}^{n}-2 U_{i}^{n}+U_{i+1}^{n}}{\Delta x^{2}}=\] \[ \left[\dis\frac{% \partial ^{2}u}{\partial x^{2}}(x_{i},t^{n+1/2})+\dis\frac{(\Delta x)^{2}}{12}% \dis\frac{\partial ^{4}u}{\partial x^{4}}(x_{i},t^{n+1/2})+ \dis\frac{(\Delta x)^{4}}{360} \dis\frac{\partial ^{6}u}{\partial x^{6}}(x_{i},t^{n+1/2})+...\right] \] \[ -\dis\frac{\Delta t}{2} \left[ \dis\frac{\partial ^{3}u}{\partial t\partial x^{2}}(x_{i},t^{n+1/2})+\dis\frac{(\Delta x)^{2}}{12} \dis\frac{\partial ^{5}u}{% \partial t\partial x^{4}}(x_{i},t^{n+1/2})+\dis\frac{(\Delta x)^{4}}{360} \dis\frac{\partial ^{7}u}{\partial t\partial x^{6}}(x_{i},t^{n+1/2})+...\right] + \] \[ \dis\frac{\left( \Delta t\right) ^{2}}{8} \left[ \dis\frac{\partial ^{4}u}{% \partial t^{2}\partial x^{2}}(x_{i},t^{n+\frac{1}{2}})+\dis\frac{(\Delta x)^{2}}{12}% \dis\frac{\partial ^{6}u}{\partial t^{2}\partial x^{4}}(x_{i},t^{n+\frac{1}{2}})+% \dis\frac{(\Delta x)^{4}}{360} \dis\frac{\partial ^{8}u}{\partial t^{2}\partial x^{6}}(x_{i},t^{n+\frac{1}{2}})+...\right. \] Por tanto, \[ (1-\theta ) \dis\frac{U_{i}^{n}-2 U_{i}^{n}+U_{i+1}^{n}}{\Delta x^{2}}% +\theta \dis\frac{U_{i}^{n+1}-2 U_{i}^{n+1}+U_{i+1}^{n+1}}{\Delta x^{2}}= \] \[ =\left[ \dis\frac{\partial ^{2}u}{\partial x^{2}}(x_{i},t^{n+1/2})+\dis\frac{(\Delta x)^{2}}{12} \dis\frac{\partial ^{4}u}{\partial x^{4}}(x_{i},t^{n+1/2})+% \dis\frac{(\Delta x)^{4}}{360} \dis\frac{\partial ^{6}u}{\partial x^{6}}% (x_{i},t^{n+1/2})+...\right] + \] \[ +\left( \theta -\dis\frac{1}{2}\right) \Delta t \left[ \dis\frac{\partial ^{3}u}{\partial t\partial x^{2}}(x_{i},t^{n+1/2})+\dis\frac{(\Delta x)^{2}}{12}% \dis\frac{\partial ^{5}u}{\partial t\partial x^{4}}(x_{i},t^{n+1/2})+....% \right] + \] \[ +\dis\frac{\left( \Delta t\right) ^{2}}{2} \left[ \dis\frac{\partial ^{4}u}{% \partial t^{2}\partial x^{2}}(x_{i},t^{n+1/2})+....\right] \] Finalmente, aplicando el $\theta $ -esquema a la soluci\'{o}n anal\'{\i}tica se puede concluir que: \[ E_{i}^{n+1}=\dis\frac{U_{i}^{n+1}-U_{i}^{n}}{\Delta t}-D \left[ (1-\theta ) \dis\frac{U_{i}^{n}-2 U_{i}^{n}+U_{i+1}^{n}}{\Delta x^{2}}+\theta \dis\frac{U_{i}^{n+1}-2 U_{i}^{n+1}+U_{i+1}^{n+1}}{\Delta x^{2}}% \right] = \] \[ =\left( \dis\frac{\partial u}{\partial t}(x_{i},t^{n+1/2})-D \dis\frac{\partial ^{2}u}{\partial x^{2}}(x_{i},t^{n+1/2})\right) + \] \[ \left( \left( \dis\frac{1}{2}-\theta \right) \Delta t \dis\frac{\partial ^{3}u}{\partial t\partial x^{2}}(x_{i},t^{n+1/2})-D \dis\frac{(\Delta x)^{2}% }{12} \dis\frac{\partial ^{4}u}{\partial x^{4}}(x_{i},t^{n+1/2})\right) + \] \[ +\left( \dis\frac{(\Delta t)^{2}}{12} \dis\frac{\partial ^{3}u}{\partial t^{3}}% (x_{i},t^{n+1/2})-\dis\frac{D}{8} (\Delta t)^{2} \dis\frac{\partial ^{4}u}{% \partial t^{2}\partial x^{2}}(x_{i},t^{n+1/2})\right) + \] \[ +\left( \dis\frac{\Delta t (\Delta x)^{2}}{12} D \left( \dis\frac{1}{2% }-\theta \right) \dis\frac{\partial ^{5}u}{\partial t\partial x^{4}}% (x_{i},t^{n+\frac{1}{2}})-\dis\frac{D}{360} (\Delta x)^{4} \dis\frac{\partial ^{6}u% }{\partial x^{6}}(x_{i},t^{n+\frac{1}{2}})\right) +... \] De los t\'{e}rminos de este error de consistencia local, el primero de ellos es la propia ecuaci\'{o}n diferencial planteada en el punto $% (x_{i},t^{n+1/2}).$ Y como $u(x,t)$ es la soluci\'{o}n anal\'{\i}tica de ella este primer sumando se anular\'{a}. Es decir, que el error de consistencia local del m\'{e}todo ser\'{a}: Si $\theta \neq 1/2:$ \ \ \ $E_{i}^{n+1}=O(\Delta t,\Delta x^{2}).$ Si $\theta =1/2:\;\;\;E_{i}^{n+1}=O(\Delta t^{2},\Delta x^{2}).$ Este segundo caso en el que $\theta =1/2,$ que presenta un mayor orden del error de consistencia local en cuanto al paso temporal se conoce, por analog\'{\i}a con el correspondiente m\'{e}todo para la resoluci\'{o}n de problemas de valor inicial, con el nombre de \textbf{m\'{e}todo de Crank-Nicolson}. Obs\'{e}rvese tambi\'{e}n que, en el caso de que $\theta \neq 1/2,$ el t\'{e}rmino principal del error de consistencia est\'{a} dado por: \[ T_{i}^{n+1}=\left( \dis\frac{1}{2}-\theta \right) \Delta t \dis\frac{% \partial ^{3}u}{\partial t\partial x^{2}}(x_{i},t^{n+1/2})-D \dis\frac{% (\Delta x)^{2}}{12} \dis\frac{\partial ^{4}u}{\partial x^{4}}% (x_{i},t^{n+1/2}) \] de donde podremos escribir que: \[ \dis\frac{1}{\left( \dis\frac{1}{2}-\theta \right) \Delta t} T_{i}^{n+1}=% \dis\frac{\partial ^{3}u}{\partial t\partial x^{2}}(x_{i},t^{n+1/2})-\dis\frac{1}{% \left( \dis\frac{1}{2}-\theta \right) 12} \dis\frac{(\Delta x)^{2}}{% \Delta t} D \dis\frac{\partial ^{4}u}{\partial x^{4}}(x_{i},t^{n+1/2}) \] Pero, suponiendo que $u(x,t)$ es suficientemente regular, de la propia EDP puede inferirse, deriv\'{a}ndola una vez respecto al tiempo, que: \[ \dis\frac{\partial u}{\partial t}(x,t)-D \dis\frac{\partial ^{2}u}{\partial x^{2}}(x,t)=0\Rightarrow \dis\frac{\partial ^{2}u}{\partial t^{2}}(x,t)-D \dis\frac{\partial ^{3}u}{\partial t\partial x^{2}}(x,t)=0 \] por lo que si \[ \dis\frac{1}{\left( \dis\frac{1}{2}-\theta \right) 12} \dis\frac{(\Delta x)^{2}}{\Delta t}=1 \] se tendr\'{a} que $T_{i}^{n+1}=0.$ La condici\'{o}n anterior puede reescribirse como \[ \alpha =\dis\frac{\Delta t}{(\Delta x)^{2}}=\dis\frac{1}{6 \left( 1-2 \theta \right) } \] y los razonamientos anteriores muestran que trabajar con esta relaci\'{o}n entre los pasos de discretizaci\'{o}n espacial y temporal aumenta el orden de consistencia del esquema. \es \underline{\textbf{NOTA:}} \textit{Obs\'{e}rvese que si }$\theta \geq 1/2$\textit{\ la relaci\'{o}n anterior no puede satisfacerse pues tanto }$\Delta t$\textit{\ como }$\Delta x$\textit{\ deben ser estrictamente positivos.} Los (un tanto tediosos) desarrollos anteriores ponen de manifiesto que los esquemas planteados son consistentes. Pero no todo es la consistencia ya que, en cada paso temporal, no partiremos de la soluci\'{o}n anal\'{\i}tica en el instante $t^{n}$ sino de otra previamente aproximada. En este sentido debe prestarse atenci\'{o}n, al igual que con los m\'{e}todos para problemas de valor inicial, a otro concepto importante: la estabilidad. De \'{e}l pasamos a ocuparnos a continuaci\'{o}n. \subsection{An\'{a}lisis de la estabilidad de los esquemas.} El concepto de estabilidad de un esquema num\'{e}rico nos permite analizar c\'{o}mo, peque\~{n}os errores iniciales, se transmiten en las sucesivas etapas del c\'{a}lculo de la soluci\'{o}n aproximada. En este sentido, en numerosas ocasiones los valores $u_{i}^{0}$ ($i=1,...,N+1$) con los que se inicializa el proceso no ser\'{a}n exactamente $u^{0}(x_{i})$ pues los errores de redondeo, inherentes al hecho de no poder manipular infinitos decimales cuando se trabaja en aritm\'{e}tica decimal finita, ser\'{a}n responsables de peque\~{n}os errores iniciales. Incluso cuando esto no sea as\'{\i}, en la primera etapa de c\'{a}lculo ya se introducir\'{a} una diferencia entre los valores exactos de la soluci\'{o}n y los valores num\'{e}ricos obtenidos (debido tanto a la aproximaci\'{o}n de los operadores diferenciales por f\'{o}rmulas en di\-fe\-ren\-cias finitas como, nuevamente, a los errores de redondeo provocados por la representaci\'{o}n con un n\'{u}mero de decimales finitos de los resultados de nuestras operaciones aritm\'{e}ticas). En resumen, el concepto de estabilidad estima c\'{o}mo ser\'{a}n las diferencias entre los valores obtenidos partiendo de los valores iniciales $% \{u_{1}^{0},$ $u_{2}^{0},.....,$ $u_{N+1}^{0}\}^{T}=\{\mathbf{u}^{0}\}$ y los que se obtendr\'{i}an si se hubiera partido del vector $\{U_{1}^{0},$ $% U_{2}^{0},.....,$ $U_{N+1}^{0}\}^{T}=\{\mathbf{U}^{0}\}$ suponiendo que entre ellos hay diferencias dadas por el vector $\{\mathbf{\varepsilon }% ^{0}\}=\{\mathbf{u}^{0}\}-\{\mathbf{U}^{0}\}.$ Si este vector fuese nulo, todo cuanto se diga podr\'{i}a trasladarse a la etapa dada por $t^{1}.$ M\'{a}s concretamente: Siendo $\{u_{1}^{n},$ $u_{2}^{n},.....,$ $% u_{N+1}^{n}\}^{T}=\{\mathbf{u}^{n}\}$ el vector de va\-lo\-res nodales obtenidos para el tiempo $t^{n}$ con un esquema num\'{e}rico inicializado con el vector $\{\mathbf{u}^{0}\}$ y siendo $\{U_{1}^{n},$ $U_{2}^{n},.....,$ $% U_{N+1}^{n}\}^{T}=\{\mathbf{U}^{n}\}$ el vector de valores nodales obtenidos para el tiempo $t^{n}$ con un esquema num\'{e}rico inicializado con otro vector cualquiera $\{\mathbf{U}^{0}\}$ (que estar\'{a} destinado a jugar el papel de los valores nodales de la soluci\'{o}n exacta, aunque cuanto se diga debe ser v\'{a}lido para cualquier elecci\'{o}n de este vector) denotaremos por \[ \{\mathbf{\varepsilon }^{n}\}=\{\mathbf{u}^{n}\}-\{\mathbf{U}% ^{n}\}=% \{u_{1}^{n}-U_{1}^{n},u_{2}^{n}-U_{2}^{n},.....,u_{N+1}^{n}-U_{N+1}^{n}% \}^{T} \] y diremos que el m\'{e}todo num\'{e}rico es estable cuando: \[ \exists M\;/\;\;\left\| \{\mathbf{\varepsilon }^{n}\}\right\| \leq M\;\;\;\;\forall n \] En otros t\'{e}rminos, cuando las diferencias entre los valores nodales de una y otra sucesi\'{o}n permanecen acotadas para cualquier etapa de c\'{a}lculo por la constante $M.$ Existen diferentes formas (equivalentes entre s\'{\i}) de analizar si un esquema num\'{e}rico es estable o no. Entre ellas presentaremos aqu\'{\i} la que se fundamenta en el an\'{a}lisis espectral de las matrices que aparecen en la formulaci\'{o}n de los esquemas num\'{e}ricos. \es \underline{\textbf{NOTA:}} \textit{Cuando tratemos los problemas convectivos, introduciremos otra t\'{e}cnica de an\'{a}lisis de la estabilidad de los esquemas conocida con el nombre de m\'{e}todo de von Neumann. Tambi\'{e}n esta segunda t\'{e}cnica podr\'{\i}a aplicarse al an\'{a}lisis de los esquemas hasta ahora considerados. En Morton y Mayers\footnote{K.W. Morton y D.F. Mayers. (1994) Numerical solutioon of Partial Differential Equations. Ed. Cambridge University Press.} puedes consultar c\'{o}mo se aplica a los }$% \theta $\textit{-m\'{e}todos.} La idea b\'{a}sica del estudio de la estabilidad mediante an\'{a}lisis espectral se basa en formular los esquemas en la forma: \[ \left\{ \mathbf{u}^{n+1}\right\} =[\mathbf{M}] \{\mathbf{u}^{n}\}+\{% \mathbf{r}^{n}\} \] En los apartados anteriores puedes consultar c\'{o}mo son la matriz $[% \mathbf{M}]$ y el vector $\{\mathbf{r}^{n}\}$ para los $\theta $ -esquemas planteados. La consideraci\'{o}n de forma recursiva del esquema as\'{i} formulado nos conduce a que: \[ \left\{ \mathbf{u}^{n}\right\} =[\mathbf{M}] \{\mathbf{u}^{n-1}\}+\{% \mathbf{r}^{n-1}\}=[\mathbf{M}] \left( [\mathbf{M}] \{\mathbf{u}% ^{n-2}\}+\{\mathbf{r}^{n-2}\}\right) +\{\mathbf{r}^{n}\}= \] \[ =[\mathbf{M}]^{2} \{\mathbf{u}^{n-2}\}+[\mathbf{M}] \{\mathbf{r}% ^{n-2}\}+\{\mathbf{r}^{n}\}=[\mathbf{M}]^{2} \left( [\mathbf{M}] \{% \mathbf{u}^{n-3}\}+\{\mathbf{r}^{n-3}\}\right) + \] \[ [\mathbf{M}] \{\mathbf{r% }^{n-2}\}+\{\mathbf{r}^{n}\}=[\mathbf{M}]^{3} \{\mathbf{u}^{n-3}\}+[\mathbf{M}]^{2} \{\mathbf{r% }^{n-3}\}+[\mathbf{M}] \{\mathbf{r}^{n-2}\}+\{\mathbf{r}^{n}\}= \] \[ [\mathbf{M}]^{n} \{\mathbf{u}^{0}\}+[\mathbf{M}]^{n-1} \{\mathbf{r% }^{1}\}+....+[\mathbf{M}] \{\mathbf{r}^{n-2}\}+\{\mathbf{r}^{n}\} \] Puesto que ni la matriz $[\mathbf{M}]$ ni los vectores $\{\mathbf{r}^{n}\}$ dependen de la soluci\'{o}n de la que se parta (pues la matriz s\'{o}lo depende del coeficiente de difusi\'{o}n $D,$ del valor escogido para $\theta ,$ y de los tama\~{n}os de los pasos de discretizaci\'{o}n $\Delta x$ y $\Delta t$, y los vectores $\{\mathbf{r}^{n}\}$ dependen de los mismos par\'{a}metros m\'{a}s de las condiciones de contorno), el mismo esquema de c\'alculo partiendo de $\{\mathbf{U}^{0}\}$ nos conduce a que: \[ \left\{ \mathbf{U}^{n}\right\} =[\mathbf{M}]^{n} \{\mathbf{U}^{0}\}+[% \mathbf{M}]^{n-1} \{\mathbf{r}^{1}\}+....+[\mathbf{M}] \{\mathbf{r}% ^{n-2}\}+\{\mathbf{r}^{n}\} \] Por tanto, \[ \{\mathbf{\varepsilon }^{n}\}=\left\{ \mathbf{u}^{n}\right\} -\left\{ \mathbf{U}^{n}\right\} =[\mathbf{M}]^{n} \left( \{\mathbf{u}^{0}\}-\{% \mathbf{U}^{0}\}\right) =[\mathbf{M}]^{n} \{\mathbf{\varepsilon }% ^{0}\}\;\;\;\;(n>0) \] La expresi\'{o}n anterior nos determinar\'{a} el vector $\{\mathbf{% \varepsilon }^{n}\}$ en funci\'{o}n del valor de $n$ y del vector de diferencias iniciales $\{\mathbf{\varepsilon }^{0}\}.$ Supongamos ahora que la matriz $[\mathbf{M}]$ es diagonalizable y tiene por valores propios a $\lambda _{1},$ $\lambda _{2,}...,$ $\lambda _{N+1}$ siendo una base de $\mathbf{C}^{N+1}$ formada por los vectores propios: $% \left\{ \mathbf{v}^{(1)}\right\} ,$ $\left\{ \mathbf{v}^{(2)}\right\} ,....,\left\{ \mathbf{v}^{(N+1)}\right\} $. \es \underline{\textbf{NOTA:}} \textit{En Conde y Schiavi\footnote{C. Conde y E. Schiavi. (2000). Guiones de la asignatura de Elementos de Matem\'aticas. Universidad Rey Juan Carlos.} puedes consultar c\'{o}mo se determinaban los valores y vectores propios de una matriz, qu\'{e} propiedades verifican, cu\'{a}ndo esta es diagonalizable y c\'{o}mo construir una base de }$\mathbf{% C}^{N+1}$\textit{\ formada por vectores propios de la matriz si esta es diagonalizable.} En estas condiciones el vector $\{\mathbf{\varepsilon }^{0}\}$ puede expresarse en la base formada por vectores propios como: \[ \{\mathbf{\varepsilon }^{0}\}=c_{1} \left\{ \mathbf{v}^{(1)}\right\} +c_{2} \left\{ \mathbf{v}^{(2)}\right\} +....+c_{N+1} \left\{ \mathbf{v}^{(N+1)}\right\} \] expresi\'{o}n de la que se obtiene \[ \lbrack \mathbf{M}] \{\mathbf{\varepsilon }^{0}\}=c_{1} [\mathbf{M}% ] \left\{ \mathbf{v}^{(1)}\right\} +c_{2} [\mathbf{M}] \left\{ \mathbf{v}^{(2)}\right\} +....+c_{N+1} [\mathbf{M}] \left\{ \mathbf{v}^{(N+1)}\right\} = \] \[ =c_{1} \lambda _{1} \left\{ \mathbf{v}^{(1)}\right\} +c_{2} \lambda _{2} \left\{ \mathbf{v}^{(2)}\right\} +....+c_{N+1} \lambda _{N+1} \left\{ \mathbf{v}^{(N+1)}\right\} \] \[ \lbrack \mathbf{M}]^{2} \{\mathbf{\varepsilon }^{0}\}=c_{1} \lambda _{1} [\mathbf{M}] \left\{ \mathbf{v}^{(1)}\right\} +c_{2} \lambda _{2} [\mathbf{M}] \left\{ \mathbf{v}% ^{(2)}\right\} +....+c_{N+1} \lambda _{N+1} [\mathbf{M}] \left\{ \mathbf{v}^{(N+1)}\right\} = \] \[ =c_{1} \lambda _{1}^{2} \left\{ \mathbf{v}^{(1)}\right\} +c_{2} \lambda _{2}^{2} \left\{ \mathbf{v}^{(2)}\right\} +....+c_{N+1} \lambda _{N+1}^{2} \left\{ \mathbf{v}% ^{(N+1)}\right\} \] y en general, \[ \lbrack \mathbf{M}]^{n} \{\mathbf{\varepsilon }^{0}\}=c_{1} \lambda _{1}^{n} \left\{ \mathbf{v}^{(1)}\right\} +c_{2} \lambda _{2}^{n} \left\{ \mathbf{v}^{(2)}\right\} +....+c_{N+1} \lambda _{N+1}^{n} \left\{ \mathbf{v}^{(N+1)}\right\} \] Por tanto, \[ \{\mathbf{\varepsilon }^{n}\}=[\mathbf{M}]^{n} \{\mathbf{\varepsilon }% ^{0}\}=c_{1} \lambda _{1}^{n} \left\{ \mathbf{v}^{(1)}\right\} +c_{2} \lambda _{2}^{n} \left\{ \mathbf{v}^{(2)}\right\} +....+c_{N+1} \lambda _{N+1}^{n} \left\{ \mathbf{v}% ^{(N+1)}\right\} \] y, tomando normas, \[ \left\| \{\mathbf{\varepsilon }^{n}\}\right\| \leq \left| c_{1}\right| \left| \lambda _{1}\right| ^{n} \left\| \left\{ \mathbf{v}% ^{(1)}\right\} \right\| +\left| c_{2}\right| \left| \lambda _{2}\right| ^{n} \left\| \left\{ \mathbf{v}^{(2)}\right\} \right\| +....+\left| c_{N+1}\right| \left| \lambda _{N+1}\right| ^{n} \left\| \left\{ \mathbf{v}^{(N+1)}\right\} \right\| \] De la expresi\'{o}n anterior puede concluirse que una condici\'{o}n suficiente para que $\left\| \{\mathbf{\varepsilon }^{n}\}\right\| $ permanezca acotado es que: \[ \left| \lambda _{j}\right| \leq 1\;\;\;\;\;(j=1,2,...,N+1) \] o, lo que es lo mismo, que el radio espectral de la matriz $[\mathbf{M}],$ que denotaremos por $\rho (\mathbf{M})$, verifique: \[ \rho (\mathbf{M})\leq 1. \] \es \underline{\textbf{NOTA:}} \textit{Recu\'{e}rdese que el radio espectral de una matriz es el mayor de los m\'{o}dulos de los valores propios de dicha matriz.} En resumen, el an\'{a}lisis de la estabilidad de los esquemas antes planteados puede realizarse analizando c\'{o}mo es el radio espectral de la matriz del m\'{e}todo $[\mathbf{M}]$. En el caso que nos ocupa dicha matriz est\'{a} dada por: \[ \lbrack \mathbf{M}]=[\mathbf{A}]^{-1} [\mathbf{B}] \] donde $[\mathbf{A}]$ y $[\mathbf{B}]$ eran matrices tridiagonales sim\'{e}tricas. \es \underline{\textbf{NOTA:}} \textit{Para el estudio de los valores propios en este caso son de inter\'{e}s las propiedades siguientes (cuya demostraci\'{o}n omitiremos para no desviarnos en exceso de nuetro estudio y pueden encontrarse por ejemplo en el libro de Smith\footnote{G.D.\ Smith (1.985) Numerical Solution of partial Differential Equations. Finite Difference Methods. (3${{}^a}$ edici\'{o}n, 4${{}^a}$ reimpresi\'{o}n (1996)). Ed. Clarendon Press.}):} \begin{proposition} Si una matriz $[\mathbf{A}]$ es regular y admite como valor propio al valor $\lambda $ con vector propio asociado $\{% \mathbf{v\},}$ entonces la matriz $[\mathbf{A}]^{-1}$ admite a $\dis\frac{1}{\lambda }$ como valor propio con el mismo vector $\{\mathbf{v}\}$ como vector propio a \'{e}l asociado.\end{proposition} \begin{proposition} Una matriz tridiagonal de dimensiones $(m,m)$ de la forma: \[ \left[ \begin{array}{lllllll} \alpha & \beta & 0 & 0 & ... & 0 & 0 \\ \gamma & \alpha & \beta & 0 & ... & 0 & 0 \\ 0 & \gamma & \alpha & \beta & ... & 0 & 0 \\ ... & ... & ... & ... & ... & ... & ... \\ ... & ... & ... & ... & ... & ... & ... \\ 0 & 0 & 0 & ... & \gamma & \alpha & \beta \\ 0 & 0 & 0 & ... & 0 & \gamma & \alpha \end{array} \right] \] admite por valores propios los n\'{u}meros: \[ \lambda _{j}=\alpha +2 \sqrt{\beta \gamma } \cos \left( \dis\frac{j \pi }{m+1}\right) \;\;\;\;\;(j=1,2,...,m). \]\end{proposition} Una vez presentadas las bases del m\'{e}todo de an\'{a}lisis espectral para el estudio de la estabilidad de los esquemas num\'{e}ricos, pasemos a analizar los $\theta $-m\'{e}todos antes introducidos. Para ello, habida cuenta de que los valores en los extremos del dominio espacial son conocidos, escribiremos el sistema de ecuaciones que proporciona la soluci\'{o}n en los nodos interiores a $(0,L)$ en la forma: \[ \lbrack \mathbf{A}] \{\mathbf{u}^{n+1}\}=[\mathbf{B}]\{\mathbf{u}% ^{n}\}+\{c^{n}\} \] donde ahora denotamos por $[\mathbf{A}]$ a una matriz de dimensiones $(N-1,N-1)$ dada por: \[ \left[ \mathbf{A}\right] =\left[ \begin{array}{lllllllll} a_{d} & a_{s} & 0 & 0 & ... & 0 & 0 & 0 & 0 \\ a_{s} & a_{d} & a_{s} & 0 & ... & 0 & 0 & 0 & 0 \\ 0 & a_{s} & a_{s} & a_{s} & ... & 0 & 0 & 0 & 0 \\ 0 & 0 & a_{s} & a_{d} & ... & 0 & 0 & 0 & 0 \\ ... & ... & ... & ... & ... & ... & ... & ... & ... \\ ... & ... & ... & ... & ... & ... & ... & ... & ... \\ ... & ... & ... & ... & ... & ... & ... & ... & ... \\ 0 & 0 & 0 & 0 & ... & 0 & a_{s} & a_{d} & a_{s} \\ 0 & 0 & 0 & 0 & ... & 0 & 0 & a_{s} & a_{d} \end{array} \right] \] con \[ a_{s}=-\theta D \alpha ,\;\;\;a_{d}=(1+2 \theta D \alpha ) \] por \[ \left[ \mathbf{B}\right] =\left[ \begin{array}{lllllllll} b_{d} & b_{s} & 0 & 0 & ... & 0 & 0 & 0 & 0 \\ b_{s} & b_{d} & b_{s} & 0 & ... & 0 & 0 & 0 & 0 \\ 0 & b_{s} & b_{d} & b_{s} & ... & 0 & 0 & 0 & 0 \\ 0 & 0 & b_{s} & b_{d} & ... & 0 & 0 & 0 & 0 \\ ... & ... & ... & ... & ... & ... & ... & ... & ... \\ ... & ... & ... & ... & ... & ... & ... & ... & ... \\ ... & ... & ... & ... & ... & ... & ... & ... & ... \\ 0 & 0 & 0 & 0 & ... & 0 & b_{s} & b_{d} & b_{s} \\ 0 & 0 & 0 & 0 & ... & 0 & 0 & b_{s} & b_{d} \end{array} \right] \] con \[ b_{s}=(1-\theta ) D \alpha ,\;\;\;\;b_{d}=(1-2 (1-\theta ) D \alpha ) \] y por \[ \{\mathbf{c}^{n}\}=\left\{ \left( b_{s} u_{IZQ}(t^{n})-a_{s} u_{IZQ}(t^{n+1})\right) ,0,0,....,0,\left( b_{s} u_{DER}(t^{n})-a_{s} u_{DER}(t^{n+1})\right) \right\} \] Esta expresi\'{o}n del esquema nos indica que se podr\'{a} asegurar que el esquema ser\'{a} estable si el radio espectral de la matriz: \[ \lbrack \mathbf{M}]=[\mathbf{A}]^{-1} [\mathbf{B}] \] es menor o igual que $1.$ Examinemos c\'{o}mo es el radio espectral de esta matriz. Para ello observemos, en primer lugar, que tanto la matriz $[\mathbf{A}]$ como la matriz $[\mathbf{B}]$ pueden expresarse como sigue: \[ \lbrack \mathbf{A}]=[\mathbf{I}]+\tau [\mathbf{T}],\;\;\;\;\;\;[% \mathbf{B}]=[\mathbf{I}]-\sigma [\mathbf{T}] \] donde $\tau =\theta D \alpha =\theta D \dis\frac{\Delta t}{% (\Delta x)^{2}}$ , $\sigma =(1-\theta ) D \alpha =(1-\theta ) D \dis\frac{\Delta t}{(\Delta x)^{2}}$ , $[\mathbf{I}]$ es la matriz identidad de dimensiones $((N-1),(N-1))$ y: \[ \lbrack \mathbf{T}]=\left[ \begin{array}{lllllllll} 2 & -1 & 0 & 0 & ... & 0 & 0 & 0 & 0 \\ -1 & 2 & -1 & 0 & ... & 0 & 0 & 0 & 0 \\ 0 & -1 & 2 & -1 & ... & 0 & 0 & 0 & 0 \\ 0 & 0 & -1 & 2 & ... & 0 & 0 & 0 & 0 \\ ... & ... & ... & ... & ... & ... & ... & ... & ... \\ ... & ... & ... & ... & ... & ... & ... & ... & ... \\ ... & ... & ... & ... & ... & ... & ... & ... & ... \\ 0 & 0 & 0 & 0 & ... & 0 & -1 & 2 & -1 \\ 0 & 0 & 0 & 0 & ... & 0 & 0 & -1 & 2 \end{array} \right] \] Por otra parte se tiene que: \begin{proposition} Si $\lambda $ es un valor propio de la matriz $[\mathbf{T}]$ y $\{\mathbf{v}\}$ es un vector propio asociado a dicho valor propio, entonces $(1+\mu \lambda ) $ es un vector propio de la matriz $\left[ [\mathbf{I}]+\mu [\mathbf{% T}]\right] $ que tiene a $\{\mathbf{v}\}$ como vector propio asociado.\end{proposition} \underline{Demostraci\'{o}n:} Basta con tener en cuenta que: \[ \left[ \lbrack \mathbf{I}]+\mu [\mathbf{T}]\right] \{\mathbf{v}% \}=[\mathbf{I}] \{\mathbf{v}\}+\mu [\mathbf{T}] \{\mathbf{v}% \}=[\mathbf{I}] \{\mathbf{v}\}+\mu \lambda \{\mathbf{v}% \}=(1+\mu \lambda ) \{\mathbf{v}\} \] \hspace{10cm}c.q.d. Puesto que los valores propios de $[\mathbf{T}]$ est\'{a}n dados por: \[ \lambda _{j}(\mathbf{T})=2+2 \cos \left( \dis\frac{j \pi }{N}\right) =2 \left( 2 \cos ^{2}\left( \dis\frac{j \pi }{2 N}\right) \right) =4 \cos ^{2}\left( \dis\frac{j \pi }{2 N}\right) \;\;\;\;\;(j=1,2,...,N-1) \] resultar\'{a} que los de $[\mathbf{A}]$ y los de $[\mathbf{B}]$ responder\'{a}n a las expresiones: \[ \lambda _{j}(\mathbf{A})=1+(\theta D \alpha ) \left( 4 \cos ^{2}\left( \dis\frac{j \pi }{2 N}\right) \right) \;\;\;\;\;(j=1,2,...,N) \] \[ \lambda _{j}(\mathbf{B})=1-((1-\theta ) D \alpha ) \left( 4 \cos ^{2}\left( \dis\frac{j \pi }{2 N}\right) \right) \;\;\;\;\;(j=1,2,...,N) \] siendo los autoespacios de $[\mathbf{A}]$ y $[\mathbf{B}]$ coincidentes. Pero los valores propios que buscamos no son los de las matrices $[\mathbf{A}% ]$ y $[\mathbf{B}]$ sino los de la matriz $[\mathbf{M}].$ Para determinarlos ser\'{a} necesario tener en cuenta la siguiente: \begin{proposition} Siendo $[\mathbf{A}]$ y $[\mathbf{B}]$ dos matrices cuadradas de la misma dimensi\'{o}n, que admiten como vector propio al vector $\{\mathbf{v}\}$ estando asociado a los valores propios $\lambda (\mathbf{A})$ y $\lambda (\mathbf{B})$ respectivamente, y siendo $[\mathbf{A}]$ una matriz no singular, se verifica que $(\lambda (\mathbf{B})$ $/$ $\lambda (\mathbf{A}))$ es un valor propio de la matriz $[\mathbf{M}]=[\mathbf{A}]^{-1} [\mathbf{B}]$ que tiene a $% \{\mathbf{v}\}$ como vector propio asociado.\end{proposition} \underline{Demostraci\'{o}n:} Basta con observar que en las condiciones de la proposici\'{o}n: \[ \lbrack \mathbf{A}] \{\mathbf{v}\}=\lambda (\mathbf{A}) \{\mathbf{v% }\}\Rightarrow \dis\frac{1}{\lambda (\mathbf{A})} \{\mathbf{v}\}=[\mathbf{A}% ]^{-1} \{\mathbf{v}\} \] de donde \[ \lbrack \mathbf{A}]^{-1} [\mathbf{B}] \{\mathbf{v}\}=[\mathbf{A}% ]^{-1} \lambda (\mathbf{B}) \{\mathbf{v}\}=\dis\frac{\lambda (\mathbf{B% })}{\lambda (\mathbf{A})} \{\mathbf{v}\}. \] \hspace{12cm}c.q.d. Seg\'{u}n esta proposici\'{o}n se tiene que: \[ \lambda _{j}(\mathbf{M})=\dis\frac{1-4 ((1-\theta ) D \alpha ) \cos ^{2}\left( \dis\frac{j \pi }{2 N}\right) }{1+4 (\theta D \alpha ) \cos ^{2}\left( \dis\frac{j \pi }{2 N}\right) }\;\;\;\;\;\;(j=1,2,...,N-1). \] Para que $|\lambda _{j}(\mathbf{M})|\leq 1$ se debe verificar que: \[ -1\leq \dis\frac{1-4 ((1-\theta ) D \alpha ) \cos ^{2}\left( \dis\frac{j \pi }{2 N}\right) }{1+4 (\theta D \alpha ) \cos ^{2}\left( \dis\frac{j \pi }{2 N}\right) }\leq 1. \] La segunda de las desigualdades anteriores nos conduce a que para todo $j$ tal que $1\leq j\leq (N-1)$: \[ 1-4 ((1-\theta ) D \alpha ) \cos ^{2}\left( \dis\frac{j \pi }{2 N}\right) \leq 1+4 (\theta D \alpha ) \cos ^{2}\left( \dis\frac{j \pi }{2 N}\right) \Rightarrow \] \[ \Rightarrow -D \alpha \cos ^{2}\left( \dis\frac{j \pi }{2 N}% \right) \leq 0 \] que, habiendo supuesto $D>0$ y pasos de discretizaci\'{o}n positivos siempre se verificar\'{a}. De la otra desigualdad se tendr\'{a} que para todo $j$ tal que $1\leq j\leq (N-1)$: \[ -1-4 (\theta D \alpha ) \cos ^{2}\left( \dis\frac{j \pi }{2 N}\right) \leq 1-4 ((1-\theta ) D \alpha ) \cos ^{2}\left( \dis\frac{j \pi }{2 N}\right) \Rightarrow \] \[ \Rightarrow -2\leq 4 D \alpha \cos ^{2}\left( \dis\frac{j \pi }{2 N}\right) (2 \theta -1)\Rightarrow \] \[ \Rightarrow (1-2 \theta )\leq \dis\frac{1}{2 D \alpha \cos ^{2}\left( \dis\frac{j \pi }{2 N}\right) } \] Esta \'{u}ltima desigualdad ser\'{a} verificada siempre para valores de $% \theta \geq 1/2.$ Para valores de este par\'{a}metro inferiores a $1/2$ la desigualdad anterior puede reescribirse en la forma: \[ \alpha \leq \dis\frac{1}{2 D (1-2 \theta ) \cos ^{2}\left( \dis\frac{j \pi }{2 N}\right) }\;\;\;(j=1,2,...,N-1). \] Puesto que para los valores que puede tomar $j$ se verificar\'{a} que: \[ 2 D (1-2 \theta ) \cos ^{2}\left( \dis\frac{j \pi }{% 2 N}\right) <2 D (1-2 \theta ) \] la estabilidad del esquema quedar\'{a} garantizada siempre que: \[ \alpha =\dis\frac{\Delta t}{(\Delta x)^{2}}\leq \dis\frac{1}{2 D (1-2 \theta )} \] En resumidas cuentas, puede afirmarse que los $\theta $ -esquemas considerados son incondicionalmente estables siempre que $\theta \geq 1/2$ o que siendo $\theta <1/2$ la relaci\'{o}n entre los tama\~{n}os de paso de la discretizaci\'{o}n temporal y la discretizaci\'{o}n espacial verifique que: \[ \dis\frac{\Delta t}{(\Delta x)^{2}}\leq \dis\frac{1}{2 D (1-2 \theta ) }. \] \es \underline{\textbf{NOTA:}} \textit{En la bibliograf\'{i}a que se recoge al final de este tema podr\'{a}s encontrar re\-fe\-ren\-cias en las que se incluyen diferentes propiedades y teoremas que ayudan a acotar el radio espectral de matrices como por ejemplo los tres teoremas de Gerschgorin. Con todo el an\'{a}lisis de m\'{e}todos gen\'{e}ricos en diferencias finitas mediante esta t\'{e}cnica puede ser relativamente laborioso debido a la necesidad de estudiar el radio espectral de las matrices que en dichos m\'{e}todos se ven involucradas. Como se dijo anteriormente, al abordar los problemas hiperb\'{o}licos de primer orden (el tratamiento del t\'{e}rmino convectivo) introduciremos otra t\'{e}cnica equivalente para el estudio de la estabilidad de los esquemas que en numerosas ocasiones se muestra m\'{a}s sencilla de aplicar.} \subsection{La equivalencia entre convergencia y estabilidad m\'{a}s consistencia: el teorema de Lax.} Como se ilustr\'{o} anteriormente, el que un esquema sea consistente con un problema de contorno nos garantizar\'{a} que, para pasos de discretizaci\'{o}n suficientemente peque\~{n}os, la soluci\'{o}n exacta del problema verificar\'{a} el esquema num\'{e}rico con un error tan peque\~{n}o como se desee. Pero nos falta por acabar de justificar a\'{u}n el que, para pasos de discretizaci\'{o}n suficientemente peque\~{n}os los valores: \[ e_{i}^{n}=u_{i}^{n}-u(x_{i},t^{n})=u_{i}^{n}-U_{i}^{n} \] tambi\'{e}n puedan hacerse suficientemente peque\~{n}os en cualquier paso de tiempo. En este sentido se introducen las siguientes definiciones: \begin{definition} Se denomina \textbf{error de convergencia} del equema num\'{e}rico considerado en el punto $x_{i}$ y en el instante $t^{n}$ al valor $% e_{i}=u_{i}^{n}-U_{i}^{n}.$ Y se dice que el esquema num\'{e}rico es \textbf{% convergente} hacia la soluci\'{o}n exacta del problema de contorno que se quiera resolver cuando: \[ {\Delta t\rightarrow 0,\Delta x\rightarrow 0}{\lim }_{\Delta t\rightarrow 0,\Delta x\rightarrow 0}(\sup_{ 1\leq i\leq N+1,n\geq 0}|e_{i}^{n}|)=0. \]\end{definition} El estudio de la consistencia de los sistemas planteados junto al an\'{a}lisis de su estabilidad nos deja a las puertas de poder concluir la convergencia de los valores nodales de las soluciones aproximadas obtenidas hacia los valores que en los nodos tome la soluci\'{o}n exacta. En efecto, habiendo demostrado que los esquemas son consistentes se tiene asegurado que para valores suficientemente peque\~{n}os de los pasos de discretizaci\'{o}n la soluci\'{o}n exacta verificar\'{a} (con errores tan peque\~{n}os como se desee) el esquema de c\'{a}lculo. Y si adem\'{a}s el esquema es estable se tiene asegurado que los errores debidos a no partir de la soluci\'{o}n exacta en cada paso de tiempo no se amplifican. Es m\'{a}s, si $\alpha =\dis\frac{\Delta t}{(\Delta x)^{2}}<1$ los desarrollos antes realizados demuestran que dichos errores tienden a anularse al hacer tender el n\'{u}mero de pasos temporales hacia infinito. De una forma intuitiva parece que en esta situaci\'{o}n ``no se nos pueden escapar'' los valores de la soluci\'{o}n exacta. Esta idea intuitiva es correcta en el caso de abordar problemas lineales (es decir cuando el coeficiente $D$ no depende de la propia soluci\'{o}n $% u(x,t)) $ y fue demostrada rigurosamente por P.D. Lax en el a\~{n}o $1953$ a trav\'{e}s del siguiente teorema: \begin{theorem} (Teorema de equivalencia de Lax). La condici\'{o}n necesaria y suficiente para que un esquema num\'{e}rico consistente con un problema evolutivo lineal sea convergente es que sea estable en el sentido anteriormente descrito.\end{theorem} Una demostraci\'{o}n rigurosa de este teorema excede los objetivos del presente curso por lo que remitimos al lector interesado a la bibliograf\'{i}a de este tema (por ejemplo a la obra de Ritchmyer y Morton\footnote{R.D. Ritchmyer y K.W. Morton (1967) Difference Methods for Initial Value Problems. 2${{}^a}$ edici\'{o}n. Ed.:Wiley-Interscience. reimpreso en 1994 por Ed. Kreiger.}). \es Consecuencia del teorema de Lax es que los $\theta $ -esquemas antes planteados, en las condiciones que garantizan su estabilidad, son convergentes. \subsection{El principio del m\'{a}ximo.} Otro aspecto que interesar\'{a} analizar sobre los esquemas de resoluci\'{o}n de problemas difusivos es si verifican o no el principio del m\'{a}ximo. En este sentido es sabido que el problema: \[ \left\{ \begin{array}{lll} \dis\frac{\partial u}{\partial t}(x,t) & =\dis\frac{\partial ^{2}u}{\partial x^{2}}% (x,t) & 00 \\ u(0,t) & =u_{I}(t) & t>0 \\ u(L,t) & =u_{D}(t) & t>0 \\ u(x,0) & =u^{0}(x) & 0\leq x\leq L \end{array} \right\} \] tiene una soluci\'{o}n anal\'{\i}tica $u(x,t)$ que toma valores comprendidos entre $u_{m}$ y $u_{M}$ dados por: \[ u_{m}=\min \left\{\inf_ {t>0}(u_{I}(t)),\inf_{t>0}% (u_{D}(t)),\inf_{0\leq x\leq L}(u^{0}(x))\right\} \] \[ u_{m}=m\acute{a}x\left\{\sup_{t>0}(u_{I}(t)),\sup _{t>0}(u_{D}(t)),\sup_{0\leq x\leq L}(u^{0}(x))\right\} \] En este sentido, al igual que se dijo para el caso de problemas es\-ta\-cio\-na\-rios, ser\'{i}a conveniente que los esquemas num\'{e}ricos satisfacieran una propiedad similar. Examinemos bajo qu\'{e} condiciones se verifica tal propiedad. Para ello recordemos que, en cada nodo $x_{i}$ y en cada instante $t^{n+1}$ el esquema pod\'{i}a escribirse como: \[ a_{i,i-1} u_{i-1}^{n+1}+a_{i,i} u_{i}^{n+1}+a_{i,i+1} u_{i+1}^{n+1}=b_{i,i-1} u_{i-1}^{n}+b_{i,i} u_{i}^{n}+b_{i,i+1} u_{i+1}^{n} \] donde \[ a_{i,i-1}=a_{i,i+1}=-\theta D \alpha ,\;\;\;a_{i,i}=(1+2 \theta D \alpha ) \] \[ b_{i,i-1}=b_{i,i+1}=(1-\theta ) D \alpha ,\;\;\;\;b_{i,i}=(1-2 (1-\theta ) D \alpha ) \] De estas expresiones se tiene que: \[ u_{i}^{n+1}=\dis\frac{\theta D \alpha }{(1+2 \theta D \alpha )} (u_{i-1}^{n+1}+u_{i+1}^{n+1})+\dis\frac{(1-\theta ) D \alpha }{(1+2 \theta D \alpha )} (u_{i-1}^{n}+u_{i+1}^{n})+ \] \[ +\dis\frac{(1-2 (1-\theta ) D \alpha )}{% (1+2 \theta D \alpha )} u_{i}^{n} =\xi _{1} u_{i-1}^{n+1}+\xi _{2} u_{i+1}^{n+1}+\xi _{3} u_{i-1}^{n}+\xi _{4} u_{i+1}^{n}+\xi _{5} u_{i}^{n} \] donde \[ \xi _{1}=\xi _{2}=\dis\frac{\theta D \alpha }{(1+2 \theta D \alpha )},\;\xi _{3}=\xi _{4}=\dis\frac{(1-\theta ) D \alpha }{% (1+2 \theta D \alpha )},\;\xi _{5}=\dis\frac{(1-2 (1-\theta ) D \alpha )}{(1+2 \theta D \alpha )} \] F\'{a}cilmente se verifica que \[ \xi _{1}+\xi _{2}+\xi _{3}+\xi _{4}+\xi _{5}=1 \] Por tanto, para que $u_{i}^{n+1}$ sea una combinaci\'{o}n convexa de los valores $u_{i+1}^{n+1},$ $u_{i-1}^{n+1},$ $u_{i-1}^{n},$ $u_{i}^{n}$ y $% u_{i+1}^{n}$ bastar\'{a} con asegurar que todos los coeficiente que los multiplican est\'{a}n comprendidos entre $0$ y $1.$ Del examen de la expresi\'{o}n de los coeficientes se deduce, recordando que $\alpha >0$ y que $D>0,$ y que $0\leq \theta $ $\leq 1,$ que \'{e}stos siempre ser\'{a}n inferiores a $1.$ Adem\'{a}s, por lo mismos motivos $\xi _{1},\xi _{2},\xi _{3}\;$y$\;\xi _{4}$ siempre ser\'{a}n no negativos. Para que tambi\'{e}n lo sea $\xi _{5}$ debe verificarse que: \[ 0\leq 1-2 (1-\theta ) D \alpha \Rightarrow \alpha \leq \dis\frac{1% }{2 D (1-\theta )} \] En resumen se tiene as\'{i} demostrado el siguiente teorema: \begin{theorem} Los $\theta $ -esquemas, planteados en el apartado $4.1.$ de este cap\'{\i}tulo, aplicados al problema de transporte puramente difusivo con coeficiente de difusi\'{o}n constante verifican el principio del m\'{a}ximo discreto siempre que la relaci\'{o}n $\alpha =\Delta t/(\Delta x)^{2}$ satisfaga la desigualdad: \[ \alpha \leq \dis\frac{1}{2 D (1-\theta )} \] \end{theorem} Obs\'{e}rvese que, como consecuencia del teorema anterior, cuanto m\'{a}s pr\'{o}ximo a $1$ sea el valor de $\theta $ mayor ser\'{a} el valor que puede tomar $\alpha .$ Asimismo, si $\theta $ $<1/2$ se tendr\'{a} que: \[ \alpha =\dis\frac{\Delta t}{(\Delta x)^{2}}\leq \dis\frac{1}{2 D (1-\theta )}\leq \dis\frac{1}{2 D (1-2 \theta )} \] por lo que la verificaci\'{o}n del principio del m\'{a}ximo garantiza tambi\'{e}n la estabilidad del $\theta $ -esquema. \subsection{Comentarios finales sobre los esquemas en diferencias finitas para la resoluci\'{o}n de problemas difusivos.} 1${{}^o}$) La forma de proceder anterior puede extenderse f\'{a}cilmente al caso de coeficientes variables, es decir a problemas en los que la EDP sea de la forma: \[ \dis\frac{\partial u}{\partial t}(x,t)=D(x,t) \dis\frac{\partial ^{2}u}{% \partial x^{2}}(x,t) \] Bastar\'{a} para ello con designar por $D_{i}^{n}=D(x_{i},t^{n})$ y sustituir en las ecuaciones el valor de $D$ por el de $D_{i}^{n+1}$ o el de $% D_{i}^{n}$ seg\'{u}n el instante de c\'{a}lculo en el que se est\'{e} discretizando el operador de segunda derivaci\'{o}n espacial. N\'{o}tese no obstante que la EDP anterior no es ya, en general, representativa de un problema de transporte difusivo pues este ser\'{\i}a modelizado mediante: \[ \dis\frac{\partial u}{\partial t}(x,t)=\dis\frac{\partial }{\partial x}\left( D(x,t) \dis\frac{\partial u}{\partial x}(x,t)\right) \] es decir, por \[ \dis\frac{\partial u}{\partial t}(x,t)=D(x,t) \dis\frac{\partial ^{2}u}{% \partial x^{2}}(x,t)+\left( \dis\frac{\partial D}{\partial x}(x,y)\right) \dis\frac{\partial u}{\partial x}(x,t) \] apareciendo un t\'{e}rmino convectivo (en derivada espacial primera) del que nos ocuparemos m\'{a}s adelante. 2${{}^o}$) Tambi\'{e}n ahora podr\'{i}an considerarse condiciones de contorno m\'{a}s generales. La forma de tratarlas es totalmente an\'{a}loga a la descrita para los problemas estacionarios, si bien deber\'{a} diferenciarse ahora el instante de c\'{a}lculo en el que se tratan. Un estudio detallado del tratamiento de condiciones de contorno m\'{a}s generales puede encontrarse, entre otros, en Smith\footnote{G.D.\ Smith (1.985) Numerical Solution of partial Differential Equations. Finite Difference Methods. (3${{}^a}$ edici\'{o}n, 4${{}^a}$ reimpresi\'{o}n (1996)). Ed. Clarendon Press.} o en Morton y Mayers\footnote{K.W. Morton y D.F. Mayers. (1994) Numerical solutioon of Partial Differential Equations. Ed. Cambridge University Press.}. 3${{}^o}$) Existen muchos otros esquemas para tratar problemas como el aqu\'{i} planteado, discretizando el operador de derivaci\'{o}n temporal de muy diferentes maneras e implicando en ello tan s\'{o}lo el instante $t^{n}$ u otros instantes anteriores. As\'{i} por ejemplo en Lapidus y Pinder\footnote{L. Lapidus y G.F. Pinder.(1982) Numerical solution of partial differential equations in science and engineering. Ed.: John Wiley.} o en Morton y Mayers\footnote{K.W. Morton y D.F. Mayers. (1994) Numerical solutioon of Partial Differential Equations. Ed. Cambridge University Press.} podr\'{a}s encontra esquemas basados en tres niveles de tiempo. 4${{}^{o}}$) Los problemas planteados en dominios espaciales bi o tridimensionales admiten un tratamiento que, conceptualmente, es similar al del caso unidimensional. No obstante en esos casos pueden aparecer nuevas dificultades en el tratamiento de las matrices involucradas en la formulaci\'{o}n de los distintos esquemas. Una estrategia que se ha mostrado muy efectiva en diferentes problemas formulados en dominios bidimensionales es la recogida en los m\'{e}todos de direcciones alternadas (ADI) en los que se pasa de $t^{n}$ a $t^{n+1}$ considerando un (o varios) instante intermedio y discretizando hasta \'{e}l las derivadas en una direcci\'{o}n espacial de forma impl\'{\i}cita (es decir, con valores nodales en dicho instante intermedio) y en la otra direcci\'{o}n espacial de forma expl\'{\i}cita (es decir en $t^{n})$ para posteriormente pasar del instante intermedio a $t^{n+1}$ cambiando los papeles a las discretizaciones empleadas seg\'{u}n cada direcci\'{o}n espacial. Ello transforma el problema bidimensional en sucesivos problemas unidimensionales, con el consiguiente ahorro en lo que a esfuerzo computacional se refiere, y sin p\'{e}rdidas significativas de precisi\'{o}n ni reducciones en los l\'{\i}mites de estabilidad. En las referencias antes aludidas encontrar\'{a}s estudios detallados sobre los m\'{e}todos ADI. \section{Esquemas en diferencias finitas para el tratamiento de pro\-ble\-mas convectivos} \subsection{Generalidades.} Consid\'{e}rese la ecuaci\'{o}n de advecci\'{o}n lineal en una dimensi\'{o}n espacial: \[ \dis\frac{\partial u}{\partial t}(x,t)+V(x,t) \dis\frac{\partial u}{\partial x}% (x,t)=0,\qquad t>0 \] acompa\~{n}ada de la condici\'{o}n inicial: \[ u(x,0)=u^{0}(x) \] Como se detall\'{o} en el primer tema de estos apuntes y se ilustra con abundantes ejemplos en el anexo la soluci\'{o}n anal\'{i}tica de este problema tiene la propiedad de ser constante sobre las curvas caracter\'{\i}sticas. La curva caracter\'{\i}stica $x(t)$ que pase por el punto $(\xi ,0)$ a su vez estar\'{a} dada como soluci\'{o}n del problema de valor inicial: \[ \left\{ \begin{array}{lll} \dis\frac{dx}{dt}(t) & =V(x(t),t) & t>0 \\ [0.2cm] x(0) & =\xi & \end{array} \right. \] Las consideraciones anteriores nos permiten ya plantear un primer m\'{e}todo num\'{e}rico para la resoluci\'{o}n de los problemas de tipo convectivo: resolver num\'{e}ricamente el problema de valor inicial que nos proporciona las curvas caracter\'{\i}sticas para distintos valores $\xi _{i}$ y transportar sobre ellas la funci\'{o}n que define la condici\'{o}n inicial. Este tipo de m\'{e}todos son denominados \textbf{m\'{e}todos de caracter\'{\i}sticas}. \underline{\textbf{NOTA:}} \textit{Obviamente, cuando sea factible evaluar de forma exacta las curvas caracter\'{\i}sticas, la soluci\'{o}n exacta podr\'{a} estimarse anal\'{\i}ticamente y la aplicaci\'{o}n de los m\'{e}todos num\'{e}ricos a tales tipos de problemas (algunos de los cuales puedes encontrarlos en los anexos de este tema) servir\'{a} simplemente para verificar el buen comportamiento (o no) de los esquemas que se est\'{e}n estudiando.} No obstante la forma usual de aplicar los m\'{e}todos de caracter\'{\i}sticas consiste en definir un mallado de la forma: \[ x_{0}0 \] y que $u(x,0)=1$ $\forall x\in \R.$ Siendo $x^{*}\geq 0$ se desea determinar la curva caracter\'{\i}stica que pasa por $(x^{*},0)$. Asimismo, tomando $x^{*}=$ $1$ se desea aproximar el valor de $t$ para el que la curva caracter\'{\i}stica anterior pasa por el punto $P(1.1,t_{P})$ y obtener mediante el m\'etodo de las caracter\'{\i}sticas un valor aproximado $u_{P}$ de la soluci\'{o}n en \'{e}l. Para ello se tiene en este caso que: \[ \dis\frac{dt}{u}=\dis\frac{dx}{\sqrt{x}}=\dis\frac{du}{-u^{2}} \] De la igualdad: \[ \dis\frac{dt}{u}=\dis\frac{du}{-u^{2}} \] se deduce que \[ dt=\dis\frac{-1}{u} du\Rightarrow t=-\ln (K u) \] y como para $t=0$ se debe verificar que $u(x,0)=1$ se tendr\'{a} que \[ 0=-\ln (K 1)\Rightarrow K=1 \] es decir, \[ t=-\ln (u)=\ln (\dis\frac{1}{u}) \] lo que nos indica que sobre la curva caracter\'{\i}stica que estamos buscando se satisface la igualdad: \[ u=e^{-t} \] De forma similar se tiene que \[ \dis\frac{dx}{\sqrt{x}}=\dis\frac{du}{-u^{2}}\Rightarrow 2 \sqrt{x}=\dis\frac{1}{u}% +C \] y como en $(x^{*},0)$ se verifica que $u(x^{*},0)=0$ resultar\'{a} que \[ 2 \sqrt{x^{*}}=1+C\Rightarrow C=2 \sqrt{x^{*}}-1 \] por lo que \[ \dis\frac{1}{u}=2 \left( \sqrt{x}-\sqrt{x^{*}}\right) +1 \] En resumen la curva caracter\'{\i}stica buscada responder\'{a} a la expresi\'{o}n: \[ t=\ln \left( \dis\frac{1}{2 \left( \sqrt{x}-\sqrt{x^{*}}\right) +1}\right) \] y sobre ella la soluci\'{o}n $u(x,t)$ satisfacer\'{a} la expresi\'{o}n \[ u(x,t)=e^{-t}=\dis\frac{1}{2 \left( \sqrt{x}-\sqrt{x^{*}}\right) +1} \] De las expresiones anal\'{\i}ticas de la soluci\'{o}n y de la curva caracter\'{\i}stica ya ser\'{\i}a inmediato obtener los valores exactos pedidos en el enunciado de este ejercicio para el instante $t_{P}$ en el que la ca\-rac\-te\-r\'{\i}s\-ti\-ca que pase por $(x^{*},0)=(1,0)$ pasa por $(1.1,t_P )$ y del valor de $u$ en dicho punto. No obstante veamos c\'{o}mo se podr\'{\i}an aproximar dichos valores mediante el m\'{e}todo de las caracter\'{\i}sticas. Para ello consideramos nuevamente que: \[ \sqrt{x} dt=u dx \] y \[ \sqrt{x} du=-u^{2} dx \] que discretizadas nos conducir\'{a}n a que: \[ \sqrt{x^{*}} (t_{P}^{(1)}-0)\approx u^{*} (x_{P}-x^{*})\Rightarrow t_{P}^{(1)}\approx \dis\frac{u^{*} (x_{P}-x^{*})}{\sqrt{x^{*}}}=\dis\frac{% 1 (1.1-1)}{\sqrt{1}}=0.1 \] y \[ \sqrt{x^{*}} (u_{P}^{(1)}-u^{*})\approx -(u^{*})^{2} (x_{P}-x^{*})\Rightarrow u_{P}^{(1)}\approx\] \[ u^{*}-\dis\frac{(u^{*})^{2} (x_{P}-x^{*})}{\sqrt{x^{*}}}=1-\dis\frac{1^{2} (1.1-1)}{\sqrt{1}}=0.9 \] Estos valores aproximados podr\'{\i}an refinarse realizando diferentes ponderaciones entre ellos. As\'{\i}, por ejemplo, se podr\'{\i}a plantear: \[ \sqrt{x} dt=u dx\rightarrow \dis\frac{\sqrt{x^{*}}+\sqrt{x_{P}}}{2}% (t_{P}^{(2)}-0)\approx \dis\frac{u^{*}+u_{P}^{(1)}}{2} (x_{P}-x^{*})\Rightarrow \] \[ \Rightarrow t_{P}^{(2)}=\dis\frac{u^{*}+u_{P}^{(1)}}{\sqrt{x^{*}}+\sqrt{x_{P}}}% (x_{P}-x^{*})=\dis\frac{1+0.9}{1+\sqrt{1.1}} 0.1=0.0927 \] y \[ \dis\frac{\sqrt{x^{*}}+\sqrt{x_{P}}}{2} (u_{P}^{(2)}-u^{*})\approx -\dis\frac{% (u^{*})^{2}+(u_{P}^{(1)})^{2}}{2} (x_{P}-x^{*})\Rightarrow \] \[ \Rightarrow u_{p}^{(2)}=u^{*}-\dis\frac{(u^{*})^{2}+(u_{P}^{(1)})^{2}}{\sqrt{% x^{*}}+\sqrt{x_{P}}} (x_{P}-x^{*})=1-\dis\frac{1+(0.9)^{2}}{1+\sqrt{1.1}}% 0.1=0.9117 \] Un tercer (y posteriores) refinamiento podr\'{\i}a realizarse de estos valores. No obstante pueden compararse los obtenidos en esta segunda aproximaci\'{o}n con los exactos $(t_{P}=0.0934,$ $u_{P}=0.9111)$ observ\'andose una buena concordancia con las aproximaciones realizadas. \vspace{1.0cm} En la lista bibliogr\'{a}fica que se cita al final de este tema podr\'{a}s encontrar diferentes variantes del m\'{e}todo de las caracter\'{\i}siticas (as\'{i} como su extensi\'{o}n a problemas de segundo orden). Nosotros, siempre por la falta de tiempo, no entraremos en sus detalles y nos limitaremos a presentarte otros m\'{e}todos num\'{e}ricos num\'{e}ricos de amplio uso basados en la discretizaci\~{n}on de las derivadas que aparecen en el problema convectivo mediante distintas estrategias en diferencias finitas. Y puesto que ya se ilustr\'{o} en el caso estacionario la conveniencia de introducir descentrajes en la aproximaci\'{o}n de los t\'{e}rminos convectivos nos centraremos en un esquema descentrado (habitualmente conocido como esquema ``upwind''). \subsection{El esquema ``upwind'' expl\'{i}cito.} Consideremos inicialmente el problema advectivo: \[ \left\{ \begin{array}{llll} \dis\frac{\partial u}{\partial t}(x,t) & +V \dis\frac{\partial u}{\partial x}% (x,t)=0 & 00 \\ [0.2cm] u(0,t) & =u_{I}(t)\;\;t>0, & & \\ [0.2cm] u(x,0) & =u^{0}(x) & 0\leq x\leq L & \end{array} \right. \] donde supondremos que $V$ es una constante positiva. \underline{\textbf{NOTAS:}} \textit{1${{}^a}$) Obs\'{e}rvese que en este caso la soluci\'{o}n anal\'{i}tica en el punto }$(x^{*},t^{*})$\textit{\ puede obtenerse f\'{a}cilmente siguiendo en retroceso la curva caracter\'{\i}stica que por \'{e}l pasa y que en este caso ser\'{a} una recta que tendr\'{a} por ecuaci\'{o}n:} \[ x=x^{*}+V (t-t^{*}) \] \textit{Si esta recta corta antes al eje de abscisas (eje }$X)$\textit{\ que al de ordenadas (eje de tiempos) la soluci\'{o}n estar\'{a} dada por:} \[ u(x^{*},t^{*})=u^{0}(x^{*}-V t^{*}) \] \textit{Y si cortase antes al eje de ordenadas que al de abscisas la soluci\'{o}n ser\'{\i}a:} \[ u(x^{*},t^{*})=u_{I}(t^{*}-\dis\frac{x^{*}}{V}) \] \textit{2${{}^a}$) Te dejamos como ejercicio propuesto adaptar todo cuanto se diga para el caso de velocidad de advecci\'{o}n positiva al caso en que }$% V<0.$\textit{\ A lo largo de la descripci\'{o}n de este m\'{e}todo te iremos dando pistas que faciliten esta tarea.} Consideremos adem\'{a}s un conjunto de valores de $t$ de la forma \[ t^{n}=n \Delta t\;\;\;\;\;\;(n=0,1,2,........) \] y dividamos el intervalo $[0,L]$ en $N$ subintervalos de la forma $% [x_{i},x_{i+1}]$ $(i=1,2,...,N)$ donde: \[ \Delta x=\dis\frac{L}{N}\;\;\;\;\;\text{y }\;\;\;\;x_{i}=(i-1) \Delta x\;\;\;\;\;(i=1,2,...,N) \] El esquema ``upwind'' consiste en plantear la EDP de advecci\'{o}n sobre cada uno de los nodos interiores del mallado considerado y aproximar la derivada temporal en $(x_{i},t^{n})$ mediante una f\'{o}rmula progresiva y la derivada espacial mediante una f\'{o}rmula regresiva. M\'{a}s concretamente: \[ \dis\frac{\partial u}{\partial t}(x_{i},t^{n})+V \dis\frac{\partial ^{2}u}{% \partial x^{2}}(x_{i},t^{n})=0\rightsquigarrow \dis\frac{u_{i}^{n+1}-u_{i}^{n}}{% \Delta t}+V \dis\frac{u_{i}^{n}-u_{i-1}^{n}}{\Delta x}=0 \] lo que nos permitir\'{a} expresar \[ u_{i}^{n+1}=u_{i}^{n}+V \dis\frac{\Delta t}{\Delta x} (u_{i-1}^{n}-u_{i}^{n})=c u_{i-1}^{n}+(1-c) u_{i}^{n} \] donde hemos denotado por $c$ al valor \[ c=V \dis\frac{\Delta t}{\Delta x} \] que habitualmente se conoce con el nombre de \textbf{n\'{u}mero de Courant} del esquema. \underline{\textbf{NOTA:}} \textit{Si }$V<0$\textit{\ el esquema resultante ser\'{i}a:} \[ u_{i}^{n+1}=(1+c) u_{i}^{n}-c u_{i+1}^{n} \] Con ello se puede plantear el esquema de c\'{a}lculo recogido en el algoritmo siguiente: \emph{COMIENZO\ DEL\ ALGORITMO} \emph{Definir el mallado concretando el valor de }$\Delta t$\emph{\ y de }$% \Delta x$\emph{\ y de }$\{x_{i}\}_{i=1}^{N+1}$ \emph{Definir el valor de }$V$ \emph{\ }$c\leftarrow V \Delta t/\Delta x$ \emph{Evaluar }$u_{i}^{0}\dashleftarrow u^{0}(x_{i})\;\;\;\;(i=1,...,N+1)$ \emph{Para }$n=0,1,2,......$ \emph{\ \ \ \ \ Conocidos los valores }$\{u_{i}^{n}\}_{i=1}^{N+1}$\emph{\ } \emph{\ \ \ \ \ \ \ \ \ \ \ Para }$i=2$\emph{\ hasta }$i=N+1$\emph{\ con paso }$1$\emph{\ hacer:} \emph{\ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ \ }$u_{j}^{n+1}\leftarrow c u_{i-1}^{n}+(1-c) u_{i}^{n}$ \emph{\ \ \ \ \ \ \ \ \ \ \ Fin bucle en }$i.$ \emph{\ \ \ \ \ \ \ \ \ \ \ }$u_{1}^{n+1}\leftarrow u_{I}(t^{n+1})$ \emph{Fin bucle en }$n.$ \emph{Escritura de resultados} \emph{FIN\ ALGORITMO.} Apliquemos el esquema a la resoluci\'{o}n de un ejemplo. Para ello consideremos el problema: \[ \left\{ \begin{array}{llll} \dis\frac{\partial u}{\partial t}(x,t) & +\dis\frac{\partial u}{\partial x}(x,t)=0 & 00 \\ u(0,t) & =u_{I}(t)\;\;t>0, & & \\ u(x,0) & =u^{0}(x) & 0\leq x\leq L & \end{array} \right\} \] siendo $u_{I}(t)=0$ y \[ u^{0}(x)=\left\{ \begin{array}{ll} 2 x & si\;x\in \left[ 0,0.5\right] \\ 2 (1-x) & si\;x\in \left[ 0.5,1\right] \\ 0 & si\;x\notin [0,1] \end{array} \right\} \] Consideremos inicialmente que $\Delta x=\Delta t=0.1.$ Con ello se obtendr\'{a}n como puntos del mallado: \[ x_{1}=0,\;\;x_{2}=0.1,\;\;x_{3}=0.2,.....,x_{i}=(i-1) 0.1,......,x_{101}=10. \] y como valores iniciales con los que arrancar el proceso de c\'{a}lculo: \[ u_{1}^{0}=0,\;\;u_{2}^{0}=0.2,\;\;u_{3}^{0}=0.4,\;\;u_{4}^{0}=0.6,% \;u_{5}^{0}=0.8,\;\;u_{6}^{0}=1.0,\;\;u_{7}^{0}=0.8, \] \[ u_{8}^{0}=0.6,\;\;u_{9}^{0}=0.4,\;\;u_{10}^{0}=0.2,\;\;u_{11}^{0}=0,% \;u_{12}^{0}=...=u_{101}^{0}=0 \] Adem\'{a}s en este caso se tiene que $c=$ $1$ por lo que el esquema de c\'{a}lculo se resume en: \[ u_{i}^{n+1}=u_{i-1}^{n} \] En el instante de c\'{a}lculo $t^{1}=0.1$ se ir\'{a}n obteniendo las siguientes aproximaciones de la soluci\'{o}n: \[ u_{1}^{1}=u_{I}(0.1)=0,\;\;u_{2}^{1}=u_{1}^{0}=0.,\;% \;u_{3}^{1}=u_{2}^{0}=0.2,\;u_{4}^{1}=u_{3}^{0}=0.4,\;% \;u_{5}^{1}=u_{4}^{0}=0.6,... \] Una vez conocidas las soluciones en el intante $t^{1}$ podr\'{a}n calcularse la del instante $t^{2}=0.2$ mediante el mismo esquema: $% u_{i}^{2}=u_{i-1}^{1}=u_{i-1}^{0}.$ En las figuras siguientes se recogen las gr\'{a}ficas de la soluci\'{o}n aproximada y de la soluci\'{o}n anal\'{i}tica que como ves son coincidentes. \begin{figure} \centering \includegraphics[width=0.6\textwidth]{fig631.eps} %\caption{} %\label{figura1} \end{figure} \begin{figure} \centering \includegraphics[width=0.6\textwidth]{fig632.eps} %\caption{} %\label{figura1} \end{figure} \begin{figure} \centering \includegraphics[width=0.6\textwidth]{fig633.eps} %\caption{} %\label{figura1} \end{figure} \begin{figure} \centering \includegraphics[width=0.6\textwidth]{fig634.eps} %\caption{} %\label{figura1} \end{figure} Volvamos a repetir el proceso anterior manteniendo $\Delta x=0.1$ pero disminuyendo el valor de $\Delta t$ al valor $\Delta t=0.05.$ Ello nos conduce a que el n\'{u}mero de Courant en este caso es: \[ c=V \dis\frac{\Delta t}{\Delta x}=0.5 \] por lo que el esquema de c\'{a}lculo se reduce a \[ u_{i}^{n+1}=\dis\frac{u_{i-1}^{n}+u_{i}^{n}}{2} \] lo que, partiendo de los mismos valores iniciales nos conduce para el instante $t^{1}=0.05$ a los valores: \[ u_{1}^{1}=u_{I}(0.05)=0 \] \[ u_{2}^{1}=\dis\frac{u_{1}^{0}+u_{2}^{0}}{2}=\dis\frac{0+0.2}{2}=0.1 \] \[ u_{3}^{1}=\dis\frac{u_{2}^{0}+u_{3}^{0}}{2}=\dis\frac{0.2+0.4}{2}=0.3 \] \[ u_{4}^{1}=\dis\frac{u_{3}^{0}+u_{4}^{0}}{2}=\dis\frac{0.4+0.6}{2}=0.5 \] \[ u_{5}^{1}=\dis\frac{u_{4}^{0}+u_{5}^{0}}{2}=\dis\frac{0.6+0.8}{2}=0.7 \] \[ .......... \] Una vez obtenidos los valores en $t^{1}=0.05$ podremos pasar a estimar los valores nodales en el instante $t^{2}=0.1$ mediante: \[ u_{1}^{2}=u_{I}(0.1)=0 \] \[ u_{2}^{2}=\dis\frac{u_{1}^{1}+u_{2}^{1}}{2}=\dis\frac{0+0.1}{2}=0.05 \] \[ u_{3}^{2}=\dis\frac{u_{2}^{1}+u_{3}^{1}}{2}=\dis\frac{0.1+0.3}{2}=0.2 \] \[ u_{4}^{2}=\dis\frac{u_{3}^{1}+u_{4}^{1}}{2}=\dis\frac{0.3+0.5}{2}=0.4 \] \[ u_{5}^{2}=\dis\frac{u_{4}^{1}+u_{5}^{1}}{2}=\dis\frac{0.5+0.7}{2}=0.6 \] \[ .......... \] Si representamos los valores que se van obteniendo en sucesivos instantes de tiempo obtendremos las siguientes gr\'{a}ficas: \begin{figure} \centering \includegraphics[width=0.6\textwidth]{fig635.eps} %\caption{} %\label{figura1} \end{figure} \begin{figure} \centering \includegraphics[width=0.6\textwidth]{fig636.eps} %\caption{} %\label{figura1} \end{figure} \begin{figure} \centering \includegraphics[width=0.6\textwidth]{fig637.eps} %\caption{} %\label{figura1} \end{figure} \begin{figure} \centering \includegraphics[width=0.6\textwidth]{fig638.eps} %\caption{} %\label{figura1} \end{figure} \begin{figure} \centering \includegraphics[width=0.6\textwidth]{fig639.eps} %\caption{} %\label{figura1} \end{figure} Puede observarse que, al igual que suced\'{\i}a en los problemas difusivos, una discretizaci\'{o}n m\'{a}s fina en la variable temporal ha sido contraproducente para los resultados obtenidos. Busquemos la justificaci\'{o}n de este hecho. Un primer razonamiento que puede hacerse es que en el caso en que el n\'{u}mero de Courant $c=1$ el esquema resultante sigue exactamente la recta caracter\'{i}sitica ya que, si $x_{i}-t^{n}>0$: \[ u_{i}^{n}=u_{i-1}^{n-1}=....=u_{i-n}^{0}=u^{0}(x_{i}-n \Delta x)=u^{0}(x_{i}-n \Delta t)=u^{0}(x_{i}-t^{n})=u(x_{i},t^{n}) \] Obviamente para otros valores de $\alpha $ el esquema no seguir\'{a} la curva caracter\'{\i}stica de forma exacta. Pero profundicemos un poco m\'{a}s en c\'{o}mo variar\'{a} la soluci\'{o}n en funci\'{o}n del n\'{u}mero de Courant $c.$ Es decir, analicemos el esquema. \subsection{Orden de consistencia del esquema ``upwind''.} Al igual que se hizo para la aproximaci\'{o}n de problemas difusivos comencemos estudiando el orden de consistencia del m\'{e}todo. Para ello se tiene que, desarrollando la soluci\'{o}n anal\'{\i}tica en torno al punto $% (x_{i},t^{n}):$ \[ \dis\frac{U_{i}^{n+1}-U_{i}^{n}}{\Delta t}=\dis\frac{\partial u}{\partial t}% (x_{i},t^{n})+\dis\frac{(\Delta t)}{2} \dis\frac{\partial ^{2}u}{\partial t^{2}}% (x_{i},t^{n})+\dis\frac{(\Delta t)^{2}}{6} \dis\frac{\partial ^{3}u}{\partial t^{3}}(x_{i},t^{n})+... \] y \[ \dis\frac{U_{i}^{n}-U_{i-1}^{n}}{\Delta t}=\dis\frac{\partial u}{\partial x}% (x_{i},t^{n})-\dis\frac{(\Delta x)}{2} \dis\frac{\partial ^{2}u}{\partial x^{2}}% (x_{i},t^{n})+\dis\frac{(\Delta x)^{2}}{6} \dis\frac{\partial ^{3}u}{\partial x^{3}}(x_{i},t^{n})+... \] de donde, \[ \dis\frac{U_{i}^{n+1}-U_{i}^{n}}{\Delta t}+V \dis\frac{U_{i}^{n}-U_{i-1}^{n}}{% \Delta t}=\left( \dis\frac{\partial u}{\partial t}(x_{i},t^{n})+V \dis\frac{% \partial u}{\partial x}(x_{i},t^{n})\right) + \] \[ +\left( \dis\frac{(\Delta t)}{2} \dis\frac{\partial ^{2}u}{\partial t^{2}}% (x_{i},t^{n})-V \dis\frac{(\Delta x)}{2} \dis\frac{\partial ^{2}u}{% \partial x^{2}}(x_{i},t^{n})\right) + \] \[ +\left( \dis\frac{(\Delta t)^{2}}{6} \dis\frac{\partial ^{3}u}{\partial t^{3}}% (x_{i},t^{n})+V \dis\frac{(\Delta x)^{2}}{6} \dis\frac{\partial ^{3}u}{% \partial x^{3}}(x_{i},t^{n})\right) +... \] Al ser $u(x,t)$ soluci\'{o}n de la EDP de convecci\'{o}n se verificar\'{a} que: \[ \dis\frac{\partial u}{\partial t}(x_{i},t^{n})+V \dis\frac{\partial u}{\partial x}(x_{i},t^{n})=0 \] por lo que el error de consistencia del esquema estar\'{a} dado por \[ E_{i}^{n+1}=\left( \dis\frac{(\Delta t)}{2} \dis\frac{\partial ^{2}u}{\partial t^{2}}(x_{i},t^{n})-V \dis\frac{(\Delta x)}{2} \dis\frac{\partial ^{2}u}{% \partial x^{2}}(x_{i},t^{n})\right) + \] \[ +\left( \dis\frac{(\Delta t)^{2}}{6} \dis\frac{\partial ^{3}u}{\partial t^{3}}% (x_{i},t^{n})+V \dis\frac{(\Delta x)^{2}}{6} \dis\frac{\partial ^{3}u}{% \partial x^{3}}(x_{i},t^{n})\right) +... \] es decir, que en general el esquema ser\'{a} de orden $O(\Delta t,\Delta x).$ \underline{\textbf{NOTA:}} \textit{Si denotamos por }$T_{i}^{n+1}$\textit{\ a la parte principal del error de consistencia del esquema se tendr\'{a} que:} \[ T_{i}^{n+1}=\dis\frac{(\Delta t)}{2} \dis\frac{\partial ^{2}u}{\partial t^{2}}% (x_{i},t^{n})-V \dis\frac{(\Delta x)}{2} \dis\frac{\partial ^{2}u}{% \partial x^{2}}(x_{i},t^{n})\Rightarrow \] \[ \Rightarrow \dis\frac{2}{\Delta t} T_{i}^{n+1}=\dis\frac{\partial ^{2}u}{% \partial t^{2}}(x_{i},t^{n})-c \dis\frac{\partial ^{2}u}{\partial x^{2}}% (x_{i},t^{n}) \] \textit{Puesto que:} \[ \dis\frac{\partial u}{\partial t}(x,t)+V \dis\frac{\partial u}{\partial x}% (x,t)=0 \] \textit{si }$u(x,t)$\textit{\ es suficientemente regular, se tendr\'{a} que:} \[ \dis\frac{\partial ^{2}u}{\partial t^{2}}(x,t)+V \dis\frac{\partial ^{2}u}{% \partial t\partial x}(x,t)=0 \] \textit{y} \[ \dis\frac{\partial ^{2}u}{\partial x\partial t}(x,t)+V \dis\frac{\partial ^{2}u% }{\partial x^{2}}(x,t)=0 \] \textit{expresiones de las que se deduce que:} \[ \dis\frac{\partial ^{2}u}{\partial t^{2}}(x,t)-V^{2} \dis\frac{\partial ^{2}u}{% \partial x^{2}}(x,t)=0 \] \textit{Entrando con esta igualdad particularizada en el punto }$% (x_{i},t^{n})$\textit{\ en la expresi\'{o}n de }$T_{i}^{n+1}$\textit{\ se tiene que:} \[ \dis\frac{2}{\Delta t} T_{i}^{n+1}=(V^{2}-V \dis\frac{\Delta t}{\Delta x}% ) \dis\frac{\partial ^{2}u}{\partial x^{2}}(x_{i},t^{n}) \] \textit{por lo que si} \[ \dis\frac{\Delta t}{\Delta x}=V \] \textit{el t\'{e}rmino principal del error de consistencia desaparecer\'{a} y el orden del esquema ser\'{a} superior.} \subsection{El m\'{e}todo de von Neumann aplicado al estudio de la estabilidad del esquema ``upwind''.} La estabilidad de un esquema como el que se acaba de presentar es susceptible de ser analizado mediante t\'{e}cnicas de an\'{a}lisis espectral como las desarrolladas para el caso de los problemas difusivos. No obstante, por introducir otra t\'{e}cnica para el estudio de la estabilidad, realizaremos este estudio mediante el m\'etodo de von Neumann. Dicha t\'{e}cnica consiste en comparar el comportamiento de las soluciones aproximadas sobre problemas que admitan como soluci\'{o}n anal\'{\i}tica alg\'{u}n arm\'{o}nico de Fourier, es decir soluciones de la forma \[ u(x,t)=A e^{i (k x+w t)} \] donde ahora $i$ representa la unidad imaginaria $i=\sqrt{-1}.$ \es \underline{\textbf{NOTA:}} \emph{Ve\'anse los anexos a este tema para un estudio detallado sobre los arm\'onicos de Fourier y su representaci\'on f\'{\i}sica como una onda en donde se introducen conceptos tales como n\'umero de onda ($k$), longitud de onda ($\lambda =2\pi /k$), pulsaci\'on ($w$) o peri\'odo ($T$).} \es Para que tal funci\'{o}n sea soluci\'{o}n anal\'{\i}tica de la EDP: \[ \dis\frac{\partial u}{\partial t}+V\dis\frac{\partial u}{\partial x}=0 \] se debe verificar que \[ w=-V k \] por lo que tal arm\'{o}nico puede expresarse como \[ u(x,t)=A e^{i k (x-V t)}=e^{-i V k t} A e^{i k x} \] y como \[ u(x,0)=u^{0}(x)=A e^{i k x} \] la soluci\'{o}n en cualquier punto $x$ y en cualquier instante $t$ responde a la expresi\'{o}n: \[ u(x,t)=e^{-i V k t} u^{0}(x) \] Esta forma de escribir la expresi\'{o}n anterior nos indica que la soluci\'{o}n anal\'{\i}tica en un instante $t$ puede obtenerse como el producto de la soluci\'{o}n inicial multiplicada por $e^{-i V k t}.$ Un ra\-zo\-na\-mien\-to an\'{a}logo nos conducir\'{\i}a a que: \[ u(x,t+\Delta t)=e^{-i V k \Delta t} u(x,t) \] Es decir, es la funci\'{o}n (compleja) $G(k \Delta t)=e^{-i V k \Delta t}$ la responsable de ``modificar'' nuestra soluci\'{o}n de un instante $t$ a otro $t+\Delta t.$ En cualquier punto $x$ y en el instante $t+\Delta t$ puede obtenerse el m\'{o}dulo de: \[ \left| u(x,t+\Delta t)\right| =\left| G(k \Delta t) u(x,t)\right| =\left| G(k \Delta t)\right| \left| u(x,t)\right| \] Es decir, que la onda arm\'{o}nica que representa la soluci\'{o}n anal\'{\i}tica se ver\'{a} amplificada o amotiguada al ser multiplicada por el valor $\left| G(k \Delta t)\right| .$ Por este motivo a dicho valor se le denominar\'{a} \textbf{factor de amplificaci\'{o}n exacto}. Es obvio que en este caso: \[ \left| G(k \Delta t)\right| =1 \] Pero cuando se trabaja con n\'{u}meros complejos, adem\'{a}s del m\'{o}dulo, debe tambi\'{e}n determinarse su argumento. En este sentido se tiene que: \[ \arg (u(x,t+\Delta t))=\arg (G(k \Delta t) u(x,t))=\arg (G(k \Delta t))+\arg (u(x,t)) \] La expresi\'{o}n anterior nos indica que el argumento de $u(x,t+\Delta t)$ ser\'{a} el de $u(x,t)$ m\'{a}s el argumento de $G(k \Delta t)$. Por ello al valor $\arg (G(k \Delta t))$ se le denominar\'{a} \textbf{% factor de desfase exacto}. Tambi\'{e}n es evidente que en este caso: \[ \arg (G(k \Delta t))=V k \Delta t \] Cuando consideremos una discretizaci\'{o}n temporal de paso $\Delta t$ y una espacial de paso $\Delta x$ ser\'{a} c\'{o}modo expresar los par\'{a}metros anteriores en funci\'{o}n del n\'{u}mero de Courant \[ c=V \dis\frac{\Delta t}{\Delta x} \] escribiendo $G(c,k \Delta x)$ en lugar de $G(k \Delta t)$ con lo que \[ \arg (G(c,k \Delta x))=c k \Delta x \] \es \underline{\textbf{NOTA:}} \textit{Obs\'{e}rvese que los resultados anteriores nos expresan que la soluci\'{o}n anal\'{\i}tica verifica:} \[ u(x,t+\Delta t)=u(x-V \Delta t,t) \] \textit{lo que, procediendo recursivamente, es otra forma de confirmar que la soluci\'{o}n anal\'{\i}tica del problema est\'{a} dada por: } \[ u(x,t+\Delta t)=u(x-V (t+\Delta t),0)=u^{0}(x-V (t+\Delta t)) \] Hasta aqu\'{\i} todo lo dicho se ha referido a la soluci\'{o}n anal\'{i}tica. \textquestiondown C\'{o}mo son las soluciones aproximadas que nos produce nuestro esquema?. Estas estar\'{a}n dadas por: \[ u_{j}^{n+1}=(1+c) u_{j}^{n}-c u_{j+1}^{n} \] por lo que, para el primer paso de tiempo se tendr\'{a} que: \[ u_{j}^{1}=c u_{j-1}^{n}+(1-c) u_{j}^{n}=c A e^{i k (x_{j}- \Delta x)}+(1-c) A e^{i k x_{j}}= \] \[ =A e^{i k x_{j}} (1-c (1-e^{-i k \Delta x}))=(1-c (1-e^{-i k \Delta x})) u_{j}^{0}=g(c,k \Delta x) u_{j}^{0} \] Este mismo razonamiento, realizado de forma recurrente, nos conduce a que: \[ u_{j}^{n+1}=(1-c (1-e^{-i k \Delta x})) u_{j}^{n}=g(c,k \Delta x) u_{j}^{n} \] \begin{definition} Se denomina \textbf{factor de amplificaci\'{o}n del esquema num\'{e}rico} al valor: \[ \left| g(c,k \Delta x)\right|. \] \end{definition} \begin{definition} Se denomina \textbf{factor de desfase del esquema num\'{e}rico} al valor: \[ \arg (g(c,k \Delta x)). \]\end{definition} Obviamente interesar\'{a} que el \textbf{error de amplificaci\'{o}n y el error de fase }definidos como: \[ E_{a}=\left| g(c,k \Delta x)\right| -\left| G(c,k \Delta x)\right| =\left| g(c,k \Delta x)\right| -1 \] \[ E_{\varphi }=\arg (G(c,k \Delta x))-\arg (g(c,k \Delta x)) \] sean lo m\'{a}s pr\'{o}ximos a 0 posible. Examinemos c\'{o}mo ser\'{a}n en este caso. Para ello se tienen las siguientes proposiciones: \begin{proposition} Para el esquema ``upwind'' se verifica que: \[ \text{Si }c>1:\;\;\max_{k}\left| g(c,k \Delta x)\right| =\left| g(c,\pi )\right| =2 c-1>1 \] \[ \text{Si }c\leq 1:\;\;\max_{k}\left| g(c,k \Delta x)\right| =1. \] \end{proposition} \underline{Demostraci\'{o}n:} \[ g(c,k \Delta x)=1-c (1-e^{-i k \Delta x})=1-c (1-\cos (k \Delta x))-i c \sin(k \Delta x) \] Por tanto, \[ \left| g(c,k \Delta x)\right| ^{2}=(1-c)^{2}+c^{2} \cos ^{2}(k \Delta x)+2 c (1-c) \cos (k \Delta x)+\] \[c^{2} \sin^{2}(k \Delta x)=(1-c)^{2}+c^{2}+2 c (1-c) \cos (k \Delta x)= \] \[ =(1-c)^{2}+c^{2}+2 c (1-c)+2 c (1-c) (\cos (k \Delta x)-1)= \] \[ =1-2 c (1-c) (1-\cos (k \Delta x)) \] de donde \[ {Sup}_{k}\left| g(c,k \Delta x)\right| =M\acute{a}x\left( 1,\left| 1-2 c\right| \right) \] de donde es evidente el resultado de la proposici\'{o}n. \hspace{10cm}c.q.d. \begin{proposition} \emph{Se verifica que:} \[ g(c,k \Delta x)=g(c,k^{\prime } \Delta x)\;\;\;\;\;\;\forall k,k^{\prime }\;/\;k \Delta x=k \Delta x+2 \pi \] \[ g(c,k \Delta x)=\overline{g}(c,-k \Delta x)\qquad \forall k\in \R. \] \end{proposition} \underline{Demostraci\'{o}n:} \es Evidente si se tiene en cuenta que: \[ g(c,k \Delta x)=1-c (1-e^{-i k \Delta x})=1-c (1-\cos (k \Delta x))-i c \sin(k \Delta x) \] \hspace{10cm}c.q.d \begin{proposition} Para peque\~{n}os valores de $K=k \Delta x,$ es decir, para grandes longitudes de onda respecto a $\Delta x,$ se verifica que: \[ E_{a}=-\dis\frac{c (1-c)}{2} K^{2}+O(K^{4}) \] \[ E_{\varphi }=\dis\frac{c (2 c-1) (1-c)}{6} K^{3}+O(K^{5}). \] \end{proposition} \underline{\textbf{Demostraci\'{o}n:}} Desarrollando en serie en torno a $K=0$ la expresi\'{o}n obtenida en la demostraci\'{o}n de la proposici\'{o}n VI.10 para $\left| g(c,K)\right| ^{2} $ se tiene que: \[ \left| g(c,K)\right| ^{2}=1-c (1-c) K^{2}+O(K^{4}) \] luego \[ \left| g(c,K)\right| =1-\dis\frac{c (1-c)}{2} K^{2}+O(K^{4}) \] de donde se tiene la expresi\'{o}n del error de amplitud dada en el enunciado. Para analizar el error de fase designemos por $\varphi =\arg (g(c,K)).$ Se verificar\'{a} entonces que: \[ \sin(\varphi )=\dis\frac{c \sin(K)}{\left| g(c,K)\right| } \] y puesto que para peque\~{n}os valores de $K:$% \[ \sin(K)=K-\dis\frac{K^{3}}{6}+O(K^{5}) \] y \[ \dis\frac{1}{\left| g(c,K)\right| }=1+\dis\frac{c (1-c)}{2} K^{2}+O(K^{4}) \] se tendr\'{a} que: \[ \dis\frac{c \sin(K)}{\left| g(c,K)\right| }=c K+c \left( \dis\frac{c (1-c)}{2}-\dis\frac{1}{6}\right) K^{3}+O(K^{5}) \] Si por otra parte se considera que: \[ \varphi (K)=\varphi _{1} K+\varphi _{3} K^{3}+O(K^{5}) \] se tendr\'{a} que \[ \sin(\varphi (K))=\varphi _{1} K+(\varphi _{3}-\dis\frac{\varphi _{1}% }{6}) K^{3}+O(K^{5}) \] e identificando ambos desarrollos se tiene que: \[ \varphi _{1}=c,\;\;\;\varphi _{3}=\dis\frac{c}{6} (1-2 c) (c-1) \] por lo que, para peque\~{n}os valores de $K:$% \[ E_{\varphi }=\arg (G(c,K))-\arg (g(c,K))=c K-c K-\dis\frac{c}{6} (1-2 c) (c-1) K^{3}+O(K^{5})\Rightarrow \] \[ \Rightarrow E_{\varphi }=\dis\frac{c}{6} (2 c-1) (1-c) K^{3}+O(K^{5}).\quad\quad \quad \quad \mbox{c.q.d}\] Obs\'{e}rvese que seg\'{u}n lo anterior, el error de amplitud es negativo y de orden $1$ en $\Delta x.$ Adem\'{a}s el error de fase es de orden $2$ y es negativo si $01.$ En otros t% \'{e}minos, puesto que: \[ u_{j}^{n}=\left| g(c,K)\right| u_{j}^{n-1}=\left| g(c,K)\right| ^{2} u_{j}^{n-2}=.....=\left| g(c,K)\right| ^{n} u_{j}^{0} \] la soluci\'{o}n tender\'{a} a explotar cuando $n$ tienda a infinito si $c>1.$ Ello justifica (que no demuestra) el siguiente teorema cuya demostraci\'{o}n rigurosa podr\'{a}s encontrar en Morton y Mayers\footnote{K.W. Morton y D.F. Mayers. (1994) Numerical solution of Partial Differential Equations. Ed. Cambridge University Press.}: \begin{theorem} Una condici\'{o}n necesaria y suficiente para que el esquema ``upwind'' sea estable es que se verifique la condici\'{o}n: \[ c=V \dis\frac{\Delta t}{\Delta x}\leq 1. \] \end{theorem} \underline{\textbf{NOTA:}} \textit{La condici\'{o}n recogida en el teorema anterior (u otra an\'{a}loga en la que var\'{\i}e la cota del n\'{u}mero de Courant) aparece en el estudio de muy diferentes esquemas y se conoce con el nombre de condici\'{o}n de Courant-Fiedrichs-Lewy (o brevemente como condici\'{o}n CFL).} Conocida la expresi\'{o}n de factor de amplificaci\'{o}n num\'{e}rico puede representarse para distintos valores de $% K=k \Delta x$ y distintos valores del n\'{u}mero de Courant $c.$ A\'{u}% n m\'{a}s ilustrativo es tomar como eje de abscisas el valor de \[ \dis\frac{\Delta x}{\lambda } \] donde $\lambda $ es la longitud de onda del arm\'{o}nico (y que como puede consultarse en el anexo a este tema se relaciona con el n\'{u}mero de onda $k$ por la relaci\'{o}n: $k=2 \pi /\lambda ).$ Ello nos conduce a gr\'{a}% ficas como la siguiente \begin{figure} \centering \includegraphics[width=0.6\textwidth]{fig640.eps} %\caption{} %\label{figura1} \end{figure} Puedes observar en ella que para distintos valores de $c$ menores que $1$ el factor amortiguamiento sigue curvas muy diferentes lo cual, al realizar sucesivas etapas de c\'{a}lculo nos puede conducir a soluciones que no exploten (que sean estables) pero tiendan a desaparecer. De todas formas, como parece evidente, cuando los valores de $\Delta x/\lambda $ son peque% \~{n}os (mallados espaciales muy finos) el valor del factor de amplificaci\'{o}n m\'{a}s se aproxima a la unidad. \es \newpage \underline{\textbf{NOTA FINAL:}} \es \emph{La disponibilidad de tiempo nos ha hecho tratar tan s\'{o}lo uno de los esquemas en diferencias para aproximar problemas convectivos. No obstante existen muchos otros (expl\'{\i}citos, como el que aqu\'{\i} hemos considerado, e impl\'{\i}citos). Entre ellos merece la pena al menos citar los esquemas de Lax, Lax-Wendroff, Leap-frog, QUICK, etc... No nos queda m\'{a}s remedio que remitirte a la bibliograf\'{\i}a sobre este tema para encontrar detalles sobre ellos.} \newpage \section{Bibliograf\'{\i}a} \begin{itemize} \item A. Bamberger. (1982) Analyse numerique des \'{e}quations aux deriv\'{e}es partielles. Support du cours de DEA. Universit\'{e} Pierre et marie Curie. \item R.L. Burden y J. D. Faires. (1998) An\'{a}lisis num\'{e}rico. (6${{}^a}$ edici\'{o}n). Ed. Thomson International. \item C. Conde y E. Schiavi (2000). Guiones de la asignatura de Elementos de Matem\'aticas. Universidad Rey Juan Carlos. \item C. Conde y G. Winter (1.991) M\'{e}todos y algoritmos b\'{a}sicos del \'{a}% lgebra num\'{e}rica. Ed. Revert\'{e}. \item D. Euvrard. (1994) R\'{e}solution num\'{e}rique des \'{e}quations aux deriv% \'{e}es partielles de la physique, de la m\'{e}canique et des sciences de l'ing\'{e}nieur. Diff\'{e}rences finies, \'{e}l\'{e}ments finis, probl\`{e}% mes en domaine non born\'{e}. (3${{}^a}$ edici\'{o}n) Ed. Masson. \item S. Godunov y V. Rabenki (1977) Sch\'{e}mes aux differences. Ed. Mir. \item L. Lapidus y G.F. Pinder.(1982) Numerical solution of partial differential equations in science and engineering. Ed.: John Wiley. \item G. Marchouk (1980) M\'{e}thodes de calcul num\'{e}rique. Ed. Mir. \item F. Michavila y C. Conde. (1987). M\'etodos de aproximaci\'on. Ed. Universidad Polit\'ecnica de Madrid. \item K.W. Morton y D.F. Mayers. (1994) Numerical solution of Partial Differential Equations. Ed. Cambridge University Press. \item R.D. Ritchmyer y K.W. Morton (1967) Difference Methods for Initial Value Problems. 2${{}^a}$ edici\'{o}n. Ed.:Wiley-Interscience. Reimpreso en 1994 por Ed. Kreiger. \item Schiavi, E., Mu\~noz Montalvo, A.I., Conde, C. (2012). M\'etodos Matemáticos para los Grados en Ingenier\'{\i}a. Primera parte: teor\'{\i}a. Ed. Dykinson, Textos Docentes 31, Universidad Rey Juan Carlos, ISBN: 978-84-15454-58-8. \item M. Sibony y J. Cl. Mardon (1984) Analyse num\'{e}riqe II: Approximation et \'{e}quations differentielles. Ed Hermann. \item G.D.\ Smith (1.985) Numerical Solution of partial Differential Equations. Finite Difference Methods. (3${{}^a}$ edici\'{o}n, 4${{}^a}$ reimpresi\'{o}n (1996)). Ed. Clarendon Press. \item Zill, D. G. (1997). Ecuaciones diferenciales con aplicaciones de modelado. (VI edici\'on) Ed. International Thomson editores. \end{itemize} %\part{Lógica de proposiciones} %\include{cap1} %\include{cap2} %\include{cap3} %\include{repasolp} %\part{Lógica de predicados de primer orden} %\include{cap4} %\include{cap5} %\include{cap6} %\include{repaso} \appendix %\include{Kleene} %\include{bibliography} \end{document}