martes, 29 de agosto de 2017

Unidad 1

Introducción a los métodos numéricos. 

Introducción 

La ciencia y la tecnología describen los fenómenos reales mediante modelos matemáticos. El estudio de estos modelos permite un conocimiento más profundo del fenómeno, así como de su evolución futura. La matemática aplicada es la rama de las matemáticas que se dedica a buscar y aplicar las herramientas más adecuadas a los problemas basados en estos modelos. Desafortunadamente, no siempre es posible aplicar métodos analíticos clásicos por diferentes razones:
No se adecuan al modelo concreto.
Su aplicación resulta excesivamente compleja.
La solución formal es tan complicada que hace imposible cualquier interpretación posterior.
Simplemente no existen métodos analíticos capaces de proporcionar soluciones al problema.

1.1 Conceptos básicos:

Cifra significativa, precisión, exactitud, incertidumbre y sesgo Cifra significativa: El concepto de cifra significativa lo podemos definir como aquella que aporta información no ambigua ni superflua acerca de una determinada medida experimental, son cifras significativas de un número vienen determinadas por su error. Son cifras que ocupan una posición igual o superior al orden o posición de error. Cuando se emplea un número en un cálculo, debe haber seguridad de que pueda usarse con confianza. El concepto de cifras significativas tiene dos implicaciones importantes en el estudio de los métodos numéricos.

1.- Los métodos numéricos obtienen resultados aproximados. Por lo tanto, se debe desarrollar criterios para especificar qué tan precisos son los resultados obtenidos.
2.- Aunque ciertos números representan número específicos, no se pueden expresar exactamente con un número finito de cifras.

Reglas de operaciones con cifras significativas.

·         Regla 1: los resultados experimentales se expresan con una sola cifra dudosa, e indicando con + - la incertidumbre en la medida.
·         Regla 2: las cifras significativas se cuentan de izquierda a derecha, a partir del primer dígito diferente de cero y hasta el digito dudoso.
·         Regla 3: al sumar o restar dos números decimales, el número de cifras decimales del resultado es igual al de la cantidad con el menor número de ellas.
·         Regla 4: al multiplicar o dividir dos números, el número de cifras significativas del resultado es igual al del factor con menos cifras.


Precisión y exactitud:

En ingeniería, ciencia, industria, estadística, exactitud y precisión no son equivalentes. Es importante resaltar que la automatización de diferentes pruebas o técnicas puede producir un aumento de la precisión. Esto se debe a que con dicha automatización, lo que logramos es una disminución de los errores manuales o su corrección inmediata.

Precisión: se refiere a la dispersión del conjunto de valores obtenidos de mediciones repetidas de una magnitud. Cuanto menor es la dispersión mayor la precisión. Una medida común de la variabilidad es la desviación estándar de las mediciones y la precisión se puede estimar como una función de ella.

Exactitud: se refiere a cuán cerca del valor real se encuentra el valor medido. En términos estadísticos, la exactitud está relacionada con el sesgo de una estimación. Cuanto menor es el sesgo más exacto es una estimación. También se refiere a la aproximación de un numero o de una medida al valor verdadero que se supone representa. Cuando expresamos la exactitud de un resultado se expresa mediante el error absoluto que es la diferencia entre el valor experimental y el valor verdadero. También es la mínima variación de magnitud que puede apreciar un instrumento.

Incertidumbre:

Incertidumbre también se le conoce como Imprecisión. Se refiere al grado de alejamiento entre sí, a las diversas aproximaciones a un valor verdadero. Situación bajo la cual se desconocen las probabilidades de ocurrencia asociados a los diferentes resultados de un determinado evento.

Sesgo:  

Existe sesgo cuando la ocurrencia de un error no aparece como un hecho aleatorio (al azar) advirtiéndose que este ocurre en forma sistemática Es un alejamiento sistemático del valor verdadero a calcular

1.2 Tipos de errores

Error absoluto, Error relativo.

Podemos distinguir dos tipos de errores que se utilizan en los cálculos: Error absoluto. Es la diferencia entre el valor de la medida y el valor tomado como exacta. Puede ser positivo o negativo, según si la medida es superior al valor real o inferior (la resta sale positiva o negativa). Tiene unidades, las mismas que las de la medida.

Error relativo

Es el cociente (la división) entre el error absoluto y el valor exacto. Si se multiplica por 100 se obtiene el tanto por ciento (%) de error. Al igual que el error absoluto puede ser positivo o negativo (según lo sea el error absoluto) porque puede ser por exceso o por defecto. No tiene unidades.

Error de redondeo  

Muchas veces, los computadores cortan los números decimales entre e 17° y 12° decimal introduciendo así un error de redondeo Por ejemplo, el valor de "e" se conoce como 2.718281828... Hasta el infinito.

Errores de truncamiento

 Los errores de truncamiento tienen relación con el método de aproximación que se usará ya que generalmente frente a una serie infinita de términos, se tenderá a cortar el número de términos, introduciendo en ese momento un error, por no utilizar la serie completa (que se supone es exacta). En una iteración, se entiende como el error por no seguir iterando y seguir aproximándose a la solución. En un intervalo que se subdivide para realizar una serie de cálculos sobre él, se asocia al número de paso, resultado de dividir el intervalo "n" veces.

Error numérico total

El error numérico total se entiende como la suma de los errores de redondeo y truncamiento introducidos en el cálculo. Pero aquí surge un gran problema. Mientras más cálculos se tengan que realizar para obtener un resultado, el error de redondeo se irá incrementando. Pero por otro lado, el error de truncamiento se puede minimizar al incluir más términos en la ecuación, disminuir el paso o proseguir la iteración (o sea mayor número de cálculos y seguramente mayor error de redondeo)

1.3 Convergencia

El método de aproximaciones sucesivas, método iterativo y también conocido como método de punto fijo, es uno de los métodos más sencillos e ilustra  el caso cuando no se tiene garantía de obtener la solución. Por tal motivo, el tema central aquí es el concepto de convergencia de una sucesión de aproximaciones.

Se entiende por convergencia de un método numérico la garantía de que, al realizar un “buen número” de iteraciones, las aproximaciones obtenidas terminan por acercarse cada vez más al verdadero valor buscado.

En la medida en la que un método numérico requiera de un menor número de iteraciones que otro, para acercarse al valor deseado, se dice que tiene una mayor rapidez de convergencia.



Introducción

Este blog aporta al perfil del Ingeniero la capacidad de aplicar herramientas matemáticas, computacionales y métodos experimentales en la solución de problemas para formular modelos, analizar procesos y elaborar prototipos. El programa se organiza en seis temas. Al término de cada una de los temas se deben resolver problemas orientados a mostrar las aplicaciones en el área de la ingeniería mecánica, hidrológica y mecatrónica.
Conocer, comprender y aplicar los métodos que permiten resolver numéricamente los problemas matemáticos más frecuentes en la Ingeniería de Obras Públicas. Adquirir conocimientos sobre el manejo y programación de ordenadores para cálculo numérico.