Introducción a los métodos numéricos.
Introducción
La ciencia y la tecnología describen los fenómenos reales mediante modelos matemáticos. El estudio de estos modelos permite un conocimiento más profundo del fenómeno, así como de su evolución futura. La matemática aplicada es la rama de las matemáticas que se dedica a buscar y aplicar las herramientas más adecuadas a los problemas basados en estos modelos. Desafortunadamente, no siempre es posible aplicar métodos analíticos clásicos por diferentes razones:
No se adecuan al modelo concreto.Su aplicación resulta excesivamente compleja.
La solución formal es tan complicada que hace imposible cualquier interpretación posterior.
Simplemente no existen métodos analíticos capaces de proporcionar soluciones al problema.
1.1 Conceptos básicos:
Cifra significativa,
precisión, exactitud, incertidumbre y sesgo Cifra significativa: El concepto de
cifra significativa lo podemos definir como aquella que aporta información no
ambigua ni superflua acerca de una determinada medida experimental, son cifras
significativas de un número vienen determinadas por su error. Son cifras que
ocupan una posición igual o superior al orden o posición de error. Cuando se
emplea un número en un cálculo, debe haber seguridad de que pueda usarse con
confianza. El concepto de cifras significativas tiene dos implicaciones
importantes en el estudio de los métodos numéricos.
1.- Los métodos numéricos
obtienen resultados aproximados. Por lo tanto, se debe desarrollar criterios
para especificar qué tan precisos son los resultados obtenidos.
2.- Aunque ciertos números
representan número específicos, no se pueden expresar exactamente con un número
finito de cifras.
Reglas de operaciones con
cifras significativas.
·
Regla 1: los resultados experimentales se
expresan con una sola cifra dudosa, e indicando con + - la incertidumbre en la
medida.
·
Regla 2: las cifras significativas se cuentan de
izquierda a derecha, a partir del primer dígito diferente de cero y hasta el
digito dudoso.
·
Regla 3: al sumar o restar dos números
decimales, el número de cifras decimales del resultado es igual al de la
cantidad con el menor número de ellas.
·
Regla 4: al multiplicar o dividir dos números,
el número de cifras significativas del resultado es igual al del factor con
menos cifras.
Precisión y exactitud:
En ingeniería, ciencia,
industria, estadística, exactitud y precisión no son equivalentes. Es
importante resaltar que la automatización de diferentes pruebas o técnicas
puede producir un aumento de la precisión. Esto se debe a que con dicha
automatización, lo que logramos es una disminución de los errores manuales o su
corrección inmediata.
Precisión: se refiere a la
dispersión del conjunto de valores obtenidos de mediciones repetidas de una
magnitud. Cuanto menor es la dispersión mayor la precisión. Una medida común de
la variabilidad es la desviación estándar de las mediciones y la precisión se
puede estimar como una función de ella.
Exactitud: se refiere a cuán
cerca del valor real se encuentra el valor medido. En términos estadísticos, la
exactitud está relacionada con el sesgo de una estimación. Cuanto menor es el
sesgo más exacto es una estimación. También se refiere a la aproximación de un
numero o de una medida al valor verdadero que se supone representa. Cuando
expresamos la exactitud de un resultado se expresa mediante el error absoluto
que es la diferencia entre el valor experimental y el valor verdadero. También
es la mínima variación de magnitud que puede apreciar un instrumento.
Incertidumbre:
Incertidumbre también se le
conoce como Imprecisión. Se refiere al grado de alejamiento entre sí, a las
diversas aproximaciones a un valor verdadero. Situación bajo la cual se
desconocen las probabilidades de ocurrencia asociados a los diferentes
resultados de un determinado evento.
Sesgo:
Existe sesgo cuando la
ocurrencia de un error no aparece como un hecho aleatorio (al azar)
advirtiéndose que este ocurre en forma sistemática Es un alejamiento
sistemático del valor verdadero a calcular
1.2 Tipos de errores
Error absoluto, Error relativo.
Podemos distinguir dos tipos
de errores que se utilizan en los cálculos: Error absoluto. Es la diferencia
entre el valor de la medida y el valor tomado como exacta. Puede ser positivo o
negativo, según si la medida es superior al valor real o inferior (la resta
sale positiva o negativa). Tiene unidades, las mismas que las de la medida.
Error relativo
Es el cociente (la división)
entre el error absoluto y el valor exacto. Si se multiplica por 100 se obtiene
el tanto por ciento (%) de error. Al igual que el error absoluto puede ser
positivo o negativo (según lo sea el error absoluto) porque puede ser por
exceso o por defecto. No tiene unidades.
Error de redondeo
Muchas veces, los computadores
cortan los números decimales entre e 17° y 12° decimal introduciendo así un
error de redondeo Por ejemplo, el valor de "e" se conoce como
2.718281828... Hasta el infinito.
Errores de truncamiento
Los errores de truncamiento tienen relación
con el método de aproximación que se usará ya que generalmente frente a una
serie infinita de términos, se tenderá a cortar el número de términos,
introduciendo en ese momento un error, por no utilizar la serie completa (que
se supone es exacta). En una iteración, se entiende como el error por no seguir
iterando y seguir aproximándose a la solución. En un intervalo que se subdivide
para realizar una serie de cálculos sobre él, se asocia al número de paso,
resultado de dividir el intervalo "n" veces.
Error numérico total
El error numérico total se
entiende como la suma de los errores de redondeo y truncamiento introducidos en
el cálculo. Pero aquí surge un gran problema. Mientras más cálculos se tengan
que realizar para obtener un resultado, el error de redondeo se irá
incrementando. Pero por otro lado, el error de truncamiento se puede minimizar
al incluir más términos en la ecuación, disminuir el paso o proseguir la
iteración (o sea mayor número de cálculos y seguramente mayor error de
redondeo)
1.3 Convergencia
El
método de aproximaciones sucesivas, método iterativo y también conocido
como método de punto fijo, es uno de los métodos más sencillos e
ilustra el caso cuando no se tiene garantía de obtener la solución.
Por tal motivo, el tema central aquí es el concepto de convergencia de una
sucesión de aproximaciones.
Se
entiende por convergencia de un método numérico la garantía de que, al realizar
un “buen número” de iteraciones, las aproximaciones obtenidas terminan por
acercarse cada vez más al verdadero valor buscado.
En
la medida en la que un método numérico requiera de un menor número de
iteraciones que otro, para acercarse al valor deseado, se dice que tiene una
mayor rapidez de convergencia.
No hay comentarios.:
Publicar un comentario