1 00:00:00,620 --> 00:00:08,560 Buenas tardes. En la clase de hoy vamos a continuar donde nos quedamos, que fue en el punto 3, 2 00:00:09,279 --> 00:00:16,859 con lo que son las cifras significativas y las reglas de redondeo. 3 00:00:17,500 --> 00:00:23,480 Entonces, ¿qué es lo que entendemos como cifras significativas? 4 00:00:23,480 --> 00:00:45,880 Es decir, el número de dígitos o el número de cifras vamos a tener que dar en el resultado de una medida ya sea directa o indirecta porque realmente no tenemos por qué expresar el resultado de una medida con todos los números o dígitos que nos ha dado la calculadora. 5 00:00:45,880 --> 00:01:02,259 Las cifras significativas de una medida están formadas por los números que se conocen no afectados por el error, más la última cifra que está sometida al error de la medida. 6 00:01:02,259 --> 00:01:17,099 Las cifras significativas son básicamente las que tienen un significado real o nos aportan algún tipo de información. 7 00:01:17,099 --> 00:01:32,620 En la siguiente diapositiva vamos a ver cuáles son las principales reglas a determinar o aplicar para ver el número de cifras significativas de un resultado o un valor de una medida. 8 00:01:33,200 --> 00:01:40,640 En primer lugar, son significativos todos aquellos dígitos distintos de cero. 9 00:01:40,640 --> 00:01:52,640 En segundo lugar, que lo tenéis marcados en negrita, los ceros que están ubicados entre dígitos distintos de cero sí son significativos. 10 00:01:53,459 --> 00:01:54,439 Tened cuidado con esto. 11 00:01:55,180 --> 00:02:04,480 Los ceros a la izquierda del primer dígito distinto de cero no son significativos. 12 00:02:04,480 --> 00:02:21,979 Por ejemplo, aquí vemos que en el valor de 0,0124, este número tiene tres cifras significativas, porque los ceros que se encuentran a la izquierda del 1 no son significativos. 13 00:02:21,979 --> 00:02:41,539 En número 4, la regla número 4, los ceros a la derecha, a partir de la primera cifra significativa distinta de cero, al final de un número, sí son cifras significativas en este caso. 14 00:02:41,539 --> 00:02:46,460 Ver la comparativa de este ejemplo con el que os he comentado anteriormente. 15 00:02:46,900 --> 00:02:53,259 Aquí, en la medida de una balanza analítica, los ceros los tenemos a la derecha. 16 00:02:53,400 --> 00:02:56,780 La primera cifra distinta de cero significativa es el número 3. 17 00:02:56,919 --> 00:03:00,539 Luego, en este caso, estos tres ceros sí son significativos. 18 00:03:01,219 --> 00:03:10,360 Luego, por ejemplo, esta primera cifra o este primer valor tiene cuatro cifras significativas. 19 00:03:11,360 --> 00:03:18,539 Veis la comparativa con el ejemplo del granatario, que lo tenéis debajo, que tendría dos cifras significativas. 20 00:03:20,240 --> 00:03:29,400 Entonces, seguimos con la regla número 5 en el caso de los dígitos que no contienen cifras decimales. 21 00:03:29,400 --> 00:03:39,759 ¿Qué ocurre en este caso? En este caso, los números se van a expresar con notación científica, es decir, se van a expresar en potencias de 10. 22 00:03:39,759 --> 00:03:49,500 Y en este caso no son cifras significativas aquellas expresiones en potencia de 10. 23 00:03:49,879 --> 00:03:55,560 Vamos a ver un ejemplo de aplicación de estas reglas con el 4 que tenéis aquí debajo. 24 00:03:56,199 --> 00:04:03,479 Tenemos, por ejemplo, en el primer dígito a la izquierda, que es el valor 504, 25 00:04:03,479 --> 00:04:12,539 vemos que tiene tres cifras significativas, porque tiene un cero entre dos dígitos que son distintos de cero. 26 00:04:12,680 --> 00:04:18,220 Luego, en este caso, este cero sí es significativo, por tanto, tenemos tres cifras significativas. 27 00:04:18,220 --> 00:04:30,579 Lo mismo ocurre con 5,04. La única diferencia es que 504 no se expresa, en este caso, o sea, no tiene cifras decimales. 28 00:04:30,579 --> 00:04:41,240 Quiero decir, disculpadme, si seguimos con el ejemplo número 3, vemos que el número de cifras significativas son 8. 29 00:04:43,459 --> 00:04:52,420 Si lo comparamos con el siguiente ejemplo, tenemos tres ceros a la izquierda del primer dígito distinto de cero, que es el 5, 30 00:04:52,560 --> 00:04:57,100 luego, por tanto, aquí tenemos cuatro cifras significativas. 31 00:04:57,100 --> 00:05:11,949 En el caso del valor de 0,50, como tenemos el 0 a la izquierda no es significativo, pero a la derecha sí, tenemos dos cifras significativas. 32 00:05:11,949 --> 00:05:27,889 Lo mismo ocurre con 0,540. El número de cifras significativas es de 3. En el caso de 50,00, aquí el número de cifras significativas son 4. 33 00:05:28,569 --> 00:05:38,689 Porque en este caso los ceros a la derecha, recordad, por la regla que venía en el punto número 4, sí se consideran significativos. 34 00:05:38,689 --> 00:05:47,389 Luego aquí tendríamos 4. ¿Qué ocurre cuando llegamos al ejemplo donde tenemos 50.000? 35 00:05:47,389 --> 00:06:08,009 En este caso, al expresarlo como notación científica, porque no contienen una coma decimal, en este caso el número de cifras significativas es 1, porque no se consideran cifras significativas las que están expresadas en potencia de 10. 36 00:06:08,009 --> 00:06:28,009 Si nosotros expresamos, por ejemplo, el siguiente valor en potencias de 10, nuestro número de cifras significativas en este caso serían 2, porque tenemos 5,0 y este 0 a la derecha sí se considera cifra significativa. 37 00:06:28,009 --> 00:06:38,689 Aquí tenemos 5 por 10 elevado a 4. Al no existir decimales, nuestro número de cifras significativas es 1. 38 00:06:39,430 --> 00:06:52,230 ¿De acuerdo? Esto es un ejemplo para detectar en cuántas cifras significativas tienen una serie de valores que tenéis plasmados en esta tabla de ejemplo. 39 00:06:52,230 --> 00:06:57,990 ¿Qué es lo que ocurre cuando nosotros operamos con cifras significativas? 40 00:06:58,050 --> 00:07:03,970 Cuando realizamos operaciones aritméticas de suma, resta, multiplicación y división. 41 00:07:03,970 --> 00:07:14,970 Las reglas que tenemos que aplicar para determinar el número de cifras significativas en el resultado de una operación aritmética las tenemos expresadas en esta diapositiva. 42 00:07:14,970 --> 00:07:30,790 En el caso de las sumas y las restas, el resultado de esa operación debe de tener el mismo número de cifras significativas que el sumando que menos decimales tenga. 43 00:07:30,790 --> 00:07:47,069 Si nosotros vemos los sumandos que vamos a sumar en esta operación aritmética, vemos que el segundo, 43,18, es el que tiene menor número de cifras significativas. 44 00:07:48,470 --> 00:08:00,550 Luego nosotros tenemos que dar el mismo, disculpadme, el resultado tiene que tener las mismas cifras significativas que el sumando que menos tenga. 45 00:08:00,550 --> 00:08:18,490 Luego, en este caso, tenemos 130,66. ¿Qué ocurre con la multiplicación y la división? El resultado tendrá las mismas cifras significativas que el factor con menor número de ellas. 46 00:08:18,490 --> 00:08:32,710 Si nosotros observamos, vemos que tenemos 3,8 que multiplica a 55,85 dividido por 392,14 y esto lo dividimos entre 0,100. 47 00:08:33,190 --> 00:08:47,330 Luego, analizando el número de cifras significativas que tienen los distintos operadores, el que menos cifras significativas tiene es el factor 3,8, que tiene dos cifras significativas. 48 00:08:47,330 --> 00:08:55,149 Luego nosotros, en este caso, daremos el resultado de 5,4 con dos cifras significativas. 49 00:08:56,070 --> 00:09:00,110 ¿De acuerdo? Muy bien. 50 00:09:00,649 --> 00:09:05,110 Continuamos con lo que se denomina el redondeo. 51 00:09:05,649 --> 00:09:07,370 ¿Qué se entiende por redondeo? 52 00:09:07,570 --> 00:09:16,809 El redondeo es el proceso de eliminación de cifras no significativas de un número. 53 00:09:17,549 --> 00:09:21,789 ¿Cuáles son las reglas que se van a aplicar en el renombre? 54 00:09:22,350 --> 00:09:31,250 Por ejemplo, vamos a ir comentando las distintas reglas con unos ejemplos que os he puesto en la diapositiva. 55 00:09:31,250 --> 00:09:36,509 Mirad, en el primer caso tenemos 7,34. 56 00:09:36,509 --> 00:09:46,970 Si el número que se elimina es menor que 5, la cifra anterior o precedente no cambia. 57 00:09:47,409 --> 00:09:50,889 En el ejemplo de 7,34 vamos a eliminar el 4. 58 00:09:50,889 --> 00:09:57,549 Como el 4 es menor que 5, la cifra precedente que es 3 no cambia. 59 00:09:57,710 --> 00:10:01,649 Luego este número se redondea a 7,3. 60 00:10:02,230 --> 00:10:10,470 ¿Qué ocurre cuando el número que se va a eliminar, en el ejemplo de 7 con 37, que vamos a eliminar el 7, 61 00:10:10,870 --> 00:10:20,309 al ser mayor que 5 ocurre lo contrario que en el caso anterior, es decir, la cifra precedente, que es el 3, se incrementa en una unidad. 62 00:10:20,309 --> 00:10:33,490 Luego 7,37 se redondearía a 7,4. Tanto 7,3 como 7,4 tienen dos cifras significativas. 63 00:10:34,110 --> 00:10:43,129 Continuamos con las reglas de redondeo analizando el caso en el que el número que se va a eliminar es igual a 5. 64 00:10:43,129 --> 00:10:54,289 En este caso, tenemos que determinar la cifra precedente si se aumenta o no se modifica en función de que sea par o impar. 65 00:10:54,470 --> 00:11:00,950 Veamos el ejemplo. Nosotros tenemos 7,45 y vamos a eliminar el 5. 66 00:11:01,610 --> 00:11:06,029 La cifra precedente se aumenta en 1 si es impar. 67 00:11:06,029 --> 00:11:26,690 Como nuestra cifra precedente es par, no se modifica. Luego 7,45 queda redondeado a 7,4. ¿Qué ocurre si la cifra precedente es impar? Al ser la cifra precedente impar, se redondea a 4. Es decir, se incrementa en una unidad. 68 00:11:26,690 --> 00:11:49,830 Mirad, para practicar lo que os acabo de explicar de las cifras significativas y las reglas de redondeo, tenéis subido al aula virtual una carpetita donde pone ejercicios para practicar. 69 00:11:49,830 --> 00:12:07,850 Esta carpetita, si la abrís, veis que tenéis dos archivos PDF. El primero de ellos tiene los enunciados y el segundo la solución. Aquí os he puesto unos ejercicios, son cuatro en total, para que trabajéis con las cifras significativas. 70 00:12:07,850 --> 00:12:18,850 En el primero tenéis que redondear, aplicar la regla del redondeo que hemos visto, estas cantidades en función de las cifras significativas dadas. 71 00:12:19,529 --> 00:12:32,769 Es decir, por ejemplo, en el primer caso tenéis que redondear 125,487 de forma que el número tenga cuatro cifras significativas. 72 00:12:32,769 --> 00:12:39,769 Y así con todos los demás. Veis que tenéis dos ejemplos resueltos. 73 00:12:40,429 --> 00:12:47,870 ¿De acuerdo? El segundo indica el número de cifras significativas que están presentes en estos resultados. 74 00:12:48,190 --> 00:12:56,769 Es decir, tenéis que indicar de los casos A al K cuál es el número de cifras significativas que existen. 75 00:12:56,769 --> 00:13:06,769 Para ello tenéis que tener en cuenta los ceros a la izquierda, los ceros a la derecha y si existen ceros entre dos dígitos que son distintos de cero. 76 00:13:06,909 --> 00:13:12,889 Lo que hemos comentado al principio de cómo se identifican las distintas cifras significativas. 77 00:13:12,889 --> 00:13:23,909 En el número 3 lo que vais a tener es una serie de operaciones aritméticas en las cuales tenéis que dar el resultado con el número de cifras significativas correspondientes. 78 00:13:23,909 --> 00:13:37,909 Y el problema número cuatro consiste en un problema de resolución de una valoración en la que tenéis que expresar el resultado con las cifras significativas que sean adecuadas. 79 00:13:39,090 --> 00:13:53,070 Igualmente tenéis subido en la misma carpeta, perdonad, y en un archivo distinto las soluciones para que vayáis practicando con lo que son las cifras significativas. 80 00:13:53,070 --> 00:14:01,730 y os vayáis familiarizando con ellas, tanto el saberlas detectar como en la aplicación de lo que son las reglas de redondeo. 81 00:14:01,850 --> 00:14:11,190 Esto es muy importante a la hora de realizar las determinaciones analíticas y no solamente a nivel de resultados, 82 00:14:11,190 --> 00:14:17,090 sino también cuando trabajemos con intervalos de confianza y cuando trabajamos con errores, 83 00:14:17,190 --> 00:14:22,070 tenemos también que aplicar todo lo que acabamos de ver sobre las reglas. 84 00:14:22,070 --> 00:14:24,950 las cifras significativas y las reglas de redondeo. 85 00:14:25,389 --> 00:14:32,669 Una vez que ya hemos visto el punto 3, vamos a seguir con el punto 4. 86 00:14:33,129 --> 00:14:42,590 El punto 4 trata de la evaluación del error experimental y cómo se va a cuantificar dicho error experimental, 87 00:14:42,870 --> 00:14:49,230 es decir, esa incertidumbre que nos va a acompañar a la expresión de nuestro resultado de medida, 88 00:14:49,230 --> 00:15:07,870 Porque siempre os comenté en la videoconferencia anterior que un resultado experimental por sí solo no tiene un valor representativo, no tiene un valor significativo, debe de ir acompañado de su incertidumbre o error en la medida. 89 00:15:08,649 --> 00:15:20,350 Entonces, tal y como veis aquí, los resultados experimentales se van a expresar en función de su error, imprecisión o incertidumbre, 90 00:15:20,350 --> 00:15:27,649 puesto que las tres cosas hablan de lo mismo, podéis verlo en forma de error, imprecisión o incertidumbre, 91 00:15:27,649 --> 00:15:39,710 con una cifra significativa dudosa y se va a indicar con más o menos después del valor de la medida. 92 00:15:40,509 --> 00:15:52,049 En otras palabras, el intervalo de confianza debe tener una cifra significativa, excepto cuando es 1, 93 00:15:52,049 --> 00:16:01,850 En cuyo caso se suelen poner dos cifras significativas siendo el valor de la segunda 5 o 0. 94 00:16:02,370 --> 00:16:06,909 Veamos qué quiere decir esto con los ejemplos que tenéis aquí debajo. 95 00:16:07,929 --> 00:16:18,470 Tenemos el primer ejemplo 7,56 más 128 más menos 0,02. 96 00:16:18,470 --> 00:16:36,070 Las reglas de redondeo, en este caso, vemos que la incertidumbre es el valor que acompaña siempre al, disculpadme, después del signo más o menos. 97 00:16:36,070 --> 00:16:44,850 Este valor vemos que tiene precisamente una cifra significativa. 98 00:16:44,850 --> 00:16:52,870 ¿Cómo pone aquí? Una cifra significativa. Esto es lo que nos expresa la incertidumbre o ese intervalo de confianza. 99 00:16:53,289 --> 00:16:59,370 Esta cifra significativa vemos que es distinta de 1. 100 00:17:00,509 --> 00:17:05,750 Bien, seguimos con la evaluación del error experimental. 101 00:17:06,069 --> 00:17:21,769 ¿Qué es lo que ocurre cuando nosotros vamos a expresar, como os he comentado anteriormente, los resultados con la imprecisión, el error o la incertidumbre? 102 00:17:21,769 --> 00:17:40,289 En este caso tenemos que realizar una interpretación adecuada de dicho valor, de dichas medidas, realizando un análisis de todos los posibles errores para decidir si el valor que nosotros hemos dado es un valor aceptable o no. 103 00:17:40,289 --> 00:17:43,809 En caso de no ser aceptable, dicho valor se rechaza. 104 00:17:43,809 --> 00:18:10,109 Tal y como explicamos en la videoconferencia anterior, el factor del error viene afectado por la suma del error sistemático, que era aquel que se podía evitar y que venía determinado por el error, por ejemplo, asociado al operador, asociado al instrumento de medida y por el error aleatorio o errores debidos al azar que no podían eliminarse. 105 00:18:10,109 --> 00:18:18,910 El error sistemático es un error que afecta a la exactitud, mientras que el error aleatorio afecta a la precisión. 106 00:18:19,490 --> 00:18:29,950 A partir de ahora vamos a analizar qué se entiende por exactitud, qué se entiende por precisión y cuáles son los principales parámetros estadísticos 107 00:18:29,950 --> 00:18:34,730 que van a afectar tanto al error sistemático como al error aleatorio. 108 00:18:35,190 --> 00:18:36,970 Comenzamos con el error sistemático. 109 00:18:37,150 --> 00:18:41,210 Las principales características del error sistemático, ya sabemos a qué se debe, 110 00:18:42,210 --> 00:18:47,589 es un error que suele actuar por exceso, iría acompañado de signo negativo, 111 00:18:47,589 --> 00:18:56,450 o por defecto, por exceso signo positivo, por defecto signo negativo, sobre el valor real. 112 00:18:56,589 --> 00:19:04,390 Es decir, el error sistemático va acompañado de un signo, de un sentido, o aumenta o disminuye. 113 00:19:04,730 --> 00:19:14,289 El error sistemático tiene siempre la misma magnitud y afecta a la exactitud de la medida. 114 00:19:14,730 --> 00:19:16,329 Es decir, ¿qué es la exactitud? 115 00:19:16,329 --> 00:19:28,750 La exactitud es la diferencia que existe entre el valor que yo he medido, xy, y el valor real o mu. 116 00:19:28,750 --> 00:19:38,549 Esta letra griega que veis aquí, es la letra mu, es la que normalmente en la bibliografía estadística se suele utilizar para identificar el valor real. 117 00:19:38,549 --> 00:19:49,849 La diferencia entre el valor que yo he medido y el valor real, esa diferencia es lo que se denomina exactitud o error absoluto. 118 00:19:49,849 --> 00:19:57,250 Porque es una diferencia que me coge precisamente un valor que yo he obtenido y el valor real. 119 00:19:57,250 --> 00:20:15,250 No me lo refiere a nada. Por eso se denomina error absoluto. Y vemos que en función de que el valor medido sea mayor o menor que el valor real, de ahí se determina el signo positivo o negativo que hemos comentado anteriormente. 120 00:20:15,250 --> 00:20:32,150 Posteriormente, os estaréis preguntando cómo sé yo el valor real, cómo lo determino, quién me lo da. El valor real normalmente suele utilizarse un valor de referencia o un patrón. 121 00:20:32,150 --> 00:21:00,029 Si no lo tengo, en su defecto, si yo estoy realizando una serie de medidas analíticas y no tengo ningún valor de referencia o ningún patrón, puedo utilizar como valor real un parámetro estadístico que se denomina la media aritmética de todas las medidas analíticas que yo he determinado, puesto que ese valor de media aritmética se considera un valor representativo. 122 00:21:00,029 --> 00:21:04,150 Entonces, estas son las principales características del error sistemático. 123 00:21:04,829 --> 00:21:10,430 Vamos a ver cuáles son los principales parámetros estadísticos que lo determinan. 124 00:21:10,490 --> 00:21:13,470 Ya hemos visto uno de ellos, el error absoluto. 125 00:21:14,329 --> 00:21:20,730 Bien, la expresión matemática del error sistemático se realiza a través del error absoluto, 126 00:21:20,869 --> 00:21:26,910 ya sea para una única medida o para un conjunto de medidas. 127 00:21:26,910 --> 00:21:46,289 ¿Cuál es la diferencia? Para una única medida, el error absoluto es la diferencia que existe entre mi valor real y el valor verdadero, ya sea una referencia, un valor patrón, en el caso de una única medida. 128 00:21:47,150 --> 00:21:55,430 esto lo que me indica es cuánto se aleja mi resultado de ese valor real. 129 00:21:55,430 --> 00:22:09,730 Es decir, esa magnitud que me determina a mí lo que se aleja me viene a decir de alguna forma lo exacto que es, por ejemplo, el método analítico que yo he empleado. 130 00:22:09,730 --> 00:22:23,630 Es decir, si esta diferencia es muy grande, el valor que yo he obtenido se aleja mucho del valor que debería salir, ese valor del patrón, el método analítico que yo he utilizado no es muy exacto. 131 00:22:23,630 --> 00:22:43,910 Si yo en lugar de tener una única medida tengo un conjunto de medidas, pues tomaré en el error absoluto la media aritmética de ese conjunto de medidas como valor representativo y veré cuánto se aleja del valor de referencia, de ese valor patrón. 132 00:22:43,910 --> 00:22:57,769 La media aritmética es una medida de concentración estadística que me determina cómo se distribuyen una serie de valores alrededor de un valor central. 133 00:22:57,769 --> 00:23:16,309 La media aritmética veis que tiene aquí su expresión matemática como el sumatorio de todas las medidas que yo he obtenido y dividido por el número de medidas totales o el número de datos totales que podéis verlo escrito como N mayúscula o como N minúscula. 134 00:23:16,309 --> 00:23:45,170 Por ejemplo, este símbolo matemático sigma que tenéis aquí, es una letra griega, lo que me indica es que yo voy a sumar todas las medidas individuales desde la número 1 hasta la número, por ejemplo, imaginaros que yo he obtenido 4 medidas, pues yo sumaré x1 más x2 más x3 más x4, los valores que me den, y esa suma la voy a dividir por 4. 135 00:23:45,170 --> 00:24:03,309 Porque mi número de valores es 4. Esto es lo que significa una media aritmética, que es el valor que consideraríamos en el caso de que tuviéramos en lugar de una única medida una serie de medidas, su valor representativo en la media aritmética. 136 00:24:03,309 --> 00:24:10,089 e igualmente la media aritmética se suele utilizar como valor representativo del valor verdadero 137 00:24:10,089 --> 00:24:15,569 en caso de que no tengamos un valor de referencia o un patrón. 138 00:24:16,829 --> 00:24:24,369 Hemos visto la definición de error absoluto, sin embargo, lo que más se utiliza es el error relativo. 139 00:24:24,369 --> 00:24:45,650 El error relativo corresponde al cociente entre el error absoluto y el valor real. Este sí es significativo porque estoy yo refiriendo esa diferencia que existe entre mi valor y el valor real, lo estoy refiriendo al valor real. 140 00:24:45,650 --> 00:25:05,509 Y siempre se expresa en tanto por ciento. Luego sí es mucho más adecuado y es más representativo hablar de error relativo que de un error absoluto, porque un error absoluto me va a dar un valor numérico mientras que un error relativo me da un tanto por ciento, que lo estoy yo refiriendo a mi valor real. 141 00:25:05,509 --> 00:25:13,970 Entonces me da una idea de la cuantificación de lo que se me aleja ese valor que yo he obtenido del valor real. 142 00:25:14,490 --> 00:25:24,450 Vemos que para una única medida, en el primer caso, el error absoluto sería xy menos mu, que es a, dividido por mu. 143 00:25:24,450 --> 00:25:35,470 Y en el caso de que yo, en lugar de tener un valor representativo, tengo una serie de medidas, pues el error absoluto lo refiero a la media aritmética. 144 00:25:36,049 --> 00:25:42,490 Recordar que es muy importante, ya sea en una medida individual como en un conjunto de medidas, 145 00:25:42,490 --> 00:25:50,690 el error relativo siempre, siempre se expresa en tanto por ciento, siempre. 146 00:25:51,470 --> 00:26:00,230 Entonces, ya hemos visto la parte correspondiente al error sistemático y a su expresión matemática 147 00:26:00,230 --> 00:26:03,470 y se utilizan parámetros de centralización. 148 00:26:03,470 --> 00:26:32,349 A continuación vamos a hablar del error aleatorio. El error aleatorio al afectar a la precisión en su expresión matemática entra a formar parte de un parámetro estadístico nuevo que se denomina desviación estándar. 149 00:26:32,349 --> 00:26:51,569 Porque la precisión de una medida lo que me viene a indicar es precisamente el grado de dispersión o de concordancia que presentan los resultados obtenidos al medir de forma repetitiva un valor de una variable. 150 00:26:51,569 --> 00:27:07,230 Es decir, cuando yo voy a medir una variable determinado número de veces, los valores que yo voy a obtener voy a observar si esos valores están muy cerca unos de otros o están muy dispersos. 151 00:27:07,230 --> 00:27:31,569 Ese grado de dispersión es lo que está relacionado con la precisión. La precisión normalmente afecta a los instrumentos de medida. Cuanto mayor es la precisión, es decir, cuanto más pequeño es el grado de dispersión, menor es la magnitud de esos errores aleatorios. 152 00:27:31,569 --> 00:27:46,750 Por tanto, ¿cómo puedo yo mejorar la precisión? No es lo mismo que yo realice tres medidas repetitivas que realice diez medidas, que veinte, que treinta. 153 00:27:47,009 --> 00:27:57,950 Es decir, cuanto mayor sea el número de repeticiones que yo realice o el número de réplicas, mayor será la precisión. 154 00:27:57,950 --> 00:28:01,509 Puedo valorar ese grado de dispersión. 155 00:28:02,029 --> 00:28:10,250 Entonces la precisión o esa dispersión de manera matemática se determina con un parámetro estadístico 156 00:28:10,250 --> 00:28:15,170 que se denomina desviación estándar de una muestra. 157 00:28:15,170 --> 00:28:20,809 Y la desviación estándar de una muestra viene determinada por el parámetro estadístico S. 158 00:28:21,329 --> 00:28:24,029 Aquí tenéis su fórmula matemática. 159 00:28:24,029 --> 00:28:48,210 Veis que la desviación estándar es la raíz cuadrada del sumatorio, tener cuidado, del sumatorio de el valor de mi medida menos el valor medio elevado al cuadrado y todo ello dividido por n-1, siendo n mi número de datos. 160 00:28:48,210 --> 00:29:09,359 Es decir, sería la raíz cuadrada de x1 menos la media aritmética al cuadrado más x2 menos la media aritmética al cuadrado y así sucesivamente y todo ello dividido por n-1. 161 00:29:09,359 --> 00:29:24,259 Es decir, si yo tengo 5 datos, tendré x sub 1 menos la media elevado al cuadrado más x sub 2 menos la media elevado al cuadrado y así hasta x sub 5 dividido por 5 menos 1 que sería igual a 4. 162 00:29:24,259 --> 00:29:33,619 La desviación estándar relativa o coeficiente de variación, que también se denomina así, 163 00:29:34,380 --> 00:29:38,759 vemos que tiene la misma definición que el error relativo. 164 00:29:38,759 --> 00:29:45,380 El error relativo era el error absoluto partido por el valor medio multiplicado por 100. 165 00:29:45,480 --> 00:29:53,400 Pues la desviación estándar relativa es igual a la desviación estándar referida al valor medio y multiplicado por 100. 166 00:29:53,400 --> 00:30:17,059 Y al igual que hemos comentado con el error relativo, la desviación estándar relativa sí tiene su importancia, como vemos en la siguiente diapositiva, porque proporciona una información mayor que lo que son las desviaciones estándar absolutas. 167 00:30:17,059 --> 00:30:24,200 Es el mismo argumento que os he comentado antes con los errores absolutos y los errores relativos. 168 00:30:24,460 --> 00:30:36,980 La desviación estándar relativa, vemos que aunque en esta diapositiva viene multiplicado por 100, también podéis verla referida a un tanto por mil. 169 00:30:37,859 --> 00:30:48,160 Digamos su fórmula matemática sería la desviación estándar absoluta partido por la media aritmética y multiplicado por 10 elevado a z. 170 00:30:48,680 --> 00:30:55,539 Si z es igual a 3 tenemos un tanto por mil y si z es igual a 2 tendremos un tanto por ciento. 171 00:30:55,539 --> 00:31:04,880 Cuando calculamos la desviación estándar relativa en tanto por ciento estamos calculando el coeficiente de variación. 172 00:31:04,880 --> 00:31:17,200 Y el coeficiente de variación es lo que nos permite determinar la precisión de un método analítico mediante dicho cálculo. 173 00:31:18,519 --> 00:31:31,319 Entonces, cuando se os pregunte o se os pida el coeficiente de variación, os está pidiendo la desviación estándar relativa en tanto por ciento. 174 00:31:31,319 --> 00:31:35,920 Pero insisto que podéis verla también referida a tanto por mil. 175 00:31:36,559 --> 00:31:48,500 Y por último, el siguiente parámetro estadístico que vamos a ver es lo que se denomina rango o recorrido en un intervalo, en una serie de medidas. 176 00:31:48,500 --> 00:32:05,259 Cuando yo tengo una serie de medidas analíticas, el rango recorrido es la diferencia que existe entre el valor mayor o el valor máximo de mi serie de medidas y el valor mínimo. 177 00:32:06,400 --> 00:32:14,680 Es un parámetro estadístico que solamente se utiliza cuando el número de datos es muy pequeño. 178 00:32:14,680 --> 00:32:30,299 No es un parámetro que se utilice con mucha asiduidad, pero también tiene su utilidad dentro de lo que es el estudio de los principales errores que afectan a la medida experimental. 179 00:32:31,500 --> 00:32:42,299 Entonces, aquí en la siguiente diapositiva os he puesto un cuadro resumen de lo que es la desviación estándar y lo que es la media aritmética. 180 00:32:42,299 --> 00:32:59,299 Aparece un parámetro estadístico nuevo que se denomina varianza. La varianza no viene a ser nada más y nada menos que el cuadrado. La varianza es el cuadrado de la desviación estándar. 181 00:32:59,299 --> 00:33:05,200 O dicho de otra forma, la desviación estándar es la raíz cuadrada de la varianza. 182 00:33:05,839 --> 00:33:08,900 Pero aquí veis que tenéis nomenclaturas diferentes. 183 00:33:09,759 --> 00:33:16,019 En las diapositivas anteriores hemos hablado de la desviación estándar referida a la letra S, 184 00:33:16,779 --> 00:33:23,000 mientras que aquí tenéis un valor de desviación estándar con la letra sigma y n 185 00:33:23,000 --> 00:33:27,579 y el que hemos visto en las diapositivas anteriores referido a n-1. 186 00:33:27,579 --> 00:33:45,880 Esto se debe a cuando nosotros hablamos de población o hablamos de muestra. Es la única diferencia que existe con las fórmulas matemáticas referidas a lo que es la desviación estándar, la media y, por supuesto, la varianza. 187 00:33:45,880 --> 00:34:03,019 Cuando nosotros hablamos de población, estamos hablando de la totalidad de un sistema objeto de estudio, donde el número de datos suele ser un número muy grande de datos, en algunos casos un número infinito de datos. 188 00:34:03,019 --> 00:34:14,280 Para poder trabajar y utilizar datos que sean representativos, lo más normal y con lo que normalmente vais a trabajar son con muestras. 189 00:34:14,760 --> 00:34:22,840 Una muestra lo que es, es una porción representativa de la población objeto de estudio. 190 00:34:23,420 --> 00:34:29,599 De ahí la diferencia en la nomenclatura. Siempre, básicamente, la diferencia está en el número de datos. 191 00:34:30,539 --> 00:34:41,340 En el caso de una muestra, el número de datos siempre se considera n-1, mientras que en el caso de la población se consideran todos los datos del sistema objeto de estudio. 192 00:34:42,079 --> 00:34:48,179 Nosotros, a nivel de parámetros estadísticos, vamos a trabajar siempre con parámetros muestrales. 193 00:34:48,179 --> 00:35:01,079 Es decir, trabajaremos con la desviación estándar S, que es el cuadrado de la varianza, y con la media aritmética de una serie de datos. 194 00:35:01,739 --> 00:35:09,880 Tener cuidado porque solamente habéis afectado el valor n-1 en la varianza y en la desviación estándar. 195 00:35:10,840 --> 00:35:11,780 ¿De acuerdo? 196 00:35:11,780 --> 00:35:30,480 Bien, pues una vez que ya hemos analizado los principales tipos de errores, errores sistemáticos y errores aleatorios y sus parámetros estadísticos más importantes como la media aritmética y los errores absolutos y relativos, 197 00:35:30,480 --> 00:35:51,019 así como la desviación estándar de la muestra absoluta y relativa, vamos a pasar al siguiente concepto dentro de lo que es la evaluación del error experimental, que se denomina la distribución normal o de caos. 198 00:35:51,019 --> 00:36:05,980 Bien, siguiendo con lo que hemos comentado anteriormente de nuestro trabajo de laboratorio nos va a dar siempre, vamos a obtener como resultado una serie de valores o una serie de medidas. 199 00:36:05,980 --> 00:36:13,719 Entonces, ¿qué ocurre si nosotros observamos una serie de medidas que hemos obtenido en un resultado analítico 200 00:36:13,719 --> 00:36:18,260 y vemos que hay una medida que se repite un determinado número de veces? 201 00:36:18,460 --> 00:36:21,099 Que eso es una cosa que suele ocurrir muy a menudo. 202 00:36:21,860 --> 00:36:27,039 Entonces, en el caso de que nosotros obtengamos en nuestro trabajo de laboratorio 203 00:36:27,039 --> 00:36:30,579 una medida que se repite un determinado número de veces, 204 00:36:30,579 --> 00:36:40,380 Esos datos experimentales se pueden representar gráficamente en forma de curva o de histograma. 205 00:36:40,619 --> 00:36:48,119 Normalmente los histogramas vienen representados en forma de diagrama de barras, mientras que la curva suele ser continua. 206 00:36:48,119 --> 00:37:01,980 La curva siempre obedece a una función matemática que va a tener una forma diferente y en función de esa forma tendrá unas características u otras. 207 00:37:03,239 --> 00:37:12,539 En el histograma vamos a representar la frecuencia de aparición de cada valor. 208 00:37:12,539 --> 00:37:37,940 Por ejemplo, si nosotros observamos el histograma que tenéis en la diapositiva donde vemos que lo que vamos a representar es en el eje de ordenadas vamos a representar la frecuencia de aparición y en el eje de abscisas lo que vamos a representar es lo que se denominan las clases. 209 00:37:37,940 --> 00:37:50,519 Este histograma lo que nos representa es la preferencia de los trabajadores de una empresa sobre las quincenas en verano que quieren de vacaciones. 210 00:37:50,519 --> 00:38:08,440 Entonces, a la vista de este histograma vemos que el valor, o digamos la clase que más frecuencia tiene de repetición, 106 y 78, son las dos quincenas de agosto. 211 00:38:08,440 --> 00:38:25,360 Luego en este caso lo que estamos viendo es que la mayoría de los trabajadores prefiere para las vacaciones de verano coger las dos quincenas de agosto siendo la primera quincena la que representa una frecuencia mayor. 212 00:38:25,360 --> 00:38:50,599 Esto es en el caso de un histograma. Pero ¿qué ocurre si nosotros, en lugar de realizar una serie de encuestas, en este caso, para poder representar este histograma, porque este diagrama de barras se ha construido a través de una serie de datos finitos, es decir, una serie de datos que yo puedo contar? 213 00:38:50,599 --> 00:38:56,980 ¿Qué ocurre si yo tengo un número de datos o un número de determinaciones o de encuestas infinitas? 214 00:38:59,360 --> 00:39:07,679 En este caso, veis aquí que yo se ha tratado de asimilar un número infinito de diagramas de barras. 215 00:39:07,880 --> 00:39:17,980 Imaginaros que aquí nosotros si unimos en forma de curva, veis las partes superiores del diagrama de barras, 216 00:39:17,980 --> 00:39:21,559 vemos que tiene como una forma de campana. 217 00:39:22,079 --> 00:39:28,260 Imaginaros que se hacen infinitas determinaciones y uno los distintos puntos, al igual que pone aquí. 218 00:39:29,039 --> 00:39:34,179 Vamos a obtener, en lugar de un diagrama de barra, vamos a obtener una curva continua. 219 00:39:34,719 --> 00:39:40,679 Esta curva, que tiene forma de campana de Gauss en honor al matemático, 220 00:39:41,159 --> 00:39:46,659 la Plas-Gauss que fue el que determinó la expresión matemática que determina esta función continua, 221 00:39:46,659 --> 00:39:54,400 pues se asemeja a lo que se denomina una distribución normal o campana de Gauss. 222 00:39:54,719 --> 00:40:03,340 La mayoría de las determinaciones analíticas que vais a realizar en el laboratorio obedecen a una distribución normal. 223 00:40:03,340 --> 00:40:09,119 Es decir, su representación gráfica tiene forma de campana de Gauss. 224 00:40:09,960 --> 00:40:20,920 ¿Cuáles son las principales características de esta distribución normal y por qué tiene interés en el trabajo analítico? 225 00:40:21,119 --> 00:40:28,559 La distribución normal dentro del campo estadístico y cuantitativo y sobre todo a nivel de análisis químicos 226 00:40:28,559 --> 00:40:38,940 tiene una gran importancia e interés debido a, primero, muchos fenómenos de las ciencias exactas y sociales 227 00:40:38,940 --> 00:40:44,420 se asemejan en su frecuencia a una distribución normal. 228 00:40:45,980 --> 00:40:53,139 La distribución normal tiene una serie de propiedades matemáticas, que las veremos a continuación, 229 00:40:53,139 --> 00:41:03,239 que nos van a permitir predecir, de ahí su importancia, cómo se va a comportar una porción de la población, 230 00:41:03,239 --> 00:41:13,320 cómo se va a comportar una muestra que cae dentro de un determinado rango o de un intervalo si sigue una distribución normal. 231 00:41:14,159 --> 00:41:25,460 Muchos test o ensayos de significación, que lo veremos más adelante, presumen que los datos del conjunto tienen una distribución normal. 232 00:41:25,460 --> 00:41:31,699 La campana de Gauss tiene o es una función simétrica. 233 00:41:31,699 --> 00:41:41,139 veis que tiene una simetría con respecto al eje de ordenadas o al eje vertical en el valor máximo 234 00:41:41,139 --> 00:41:49,619 que coincide con el valor de la media aritmética, la mediana y también la moda. Vemos que la simetría 235 00:41:49,619 --> 00:41:55,760 lo que me hace es que tanto a izquierda como a derecha nos vamos a encontrar el 50% de todos 236 00:41:55,760 --> 00:42:03,280 los valores. En una campana de Gauss, en el eje X, en el eje de abscisas, están representados 237 00:42:03,280 --> 00:42:09,780 los valores de mi serie de datos y en el eje Y, que aquí no aparece representado, lo veremos 238 00:42:09,780 --> 00:42:18,239 en la diapositiva siguiente, se va a representar la probabilidad. En el valor máximo, que 239 00:42:18,239 --> 00:42:26,119 lo tenéis en el punto más alto, nos encontramos la media aritmética, que es el valor que 240 00:42:26,119 --> 00:42:37,619 tiene la mayor probabilidad de coincidir con el valor exacto. Estas son una de las principales 241 00:42:37,619 --> 00:42:44,460 características que tiene la campana de Gauss o la distribución normal. Pero además, la 242 00:42:44,460 --> 00:42:52,960 distribución normal también se define por dos propiedades que las he comentado anteriormente, 243 00:42:52,960 --> 00:43:01,840 que son la media y la distribución estática. Si nosotros conocemos dichos valores, valor de la 244 00:43:01,840 --> 00:43:08,880 media aritmética y de la desviación estándar de mi serie de medidas que se representa en el eje X, 245 00:43:08,880 --> 00:43:17,360 con esos valores nosotros podemos obtener la distribución normal aplicando una fórmula matemática 246 00:43:17,360 --> 00:43:22,739 que la tenéis aquí, sin embargo nosotros no vamos a trabajar con ella porque es una fórmula muy compleja 247 00:43:22,739 --> 00:43:26,239 pero esta fórmula nos permite obtener la curva. 248 00:43:27,139 --> 00:43:33,460 ¿Y cuál es, aparte de lo que os he comentado anteriormente, otras características principales? 249 00:43:33,460 --> 00:44:03,239 Mirad, aparte de la simetría, a partir de este valor máximo, aquí tenemos representada la probabilidad, como os he dicho anteriormente, aquí tenemos representados los valores de mi serie de datos que los podemos, digamos, agrupar en función de su desviación estándar, tenemos el punto máximo coincide con la media aritmética y tenemos una simetría con respecto al eje Y en función del valor medio. 250 00:44:03,460 --> 00:44:14,559 Por otro lado, tenemos que esta distribución normal es asintótica respecto al eje de abscisa, respecto al eje x. 251 00:44:14,780 --> 00:44:29,699 Es decir, asintótica significa que los valores de esta función, que son infinitos, va a tender siempre a desplazarse paralela al eje x, 252 00:44:29,699 --> 00:44:36,440 pero nunca lo va a tocar. Es decir, una función asintótica significa que nunca corta a ese eje. 253 00:44:36,579 --> 00:44:44,099 Es decir, yo no voy a encontrar ningún valor en el que la gráfica corta a dicho eje, 254 00:44:44,599 --> 00:44:53,400 sino que en el infinito, tanto en positivo como en negativo, la curva va a tender a acercarse al eje x. 255 00:44:53,400 --> 00:45:05,380 Esto nos viene a decir que esta función coge infinitos valores y el área incluida bajo la curva en el infinito siempre se acerca a la unidad. 256 00:45:06,059 --> 00:45:14,099 Veis también aquí que tiene dos puntos de inflexión en este punto de aquí y en este punto de aquí. 257 00:45:14,099 --> 00:45:31,119 Es decir, desde este valor, esta curva aquí es complexa y vemos que a partir de este punto que coincide con la unidad de la desviación estándar se vuelve cóncava. 258 00:45:31,119 --> 00:45:47,480 Estas propiedades de simetría, asintótica y puntos de inflexión es lo que nos permite predecir el comportamiento de mi serie de datos cuando sigue esta distribución. 259 00:45:47,480 --> 00:46:15,099 Bien, otro carácter importante de la distribución normal que hemos comentado anteriormente es nosotros el eje X que habíamos dicho en el que se representaban los valores o que reúne todos los valores de una población de datos que viene a ser infinita, 260 00:46:15,099 --> 00:46:37,900 si lo, digamos, escalamos en función de unidades de desviación estándar, considerando en el centro el valor medio y a izquierda o a derecha lo vamos a, digamos, escalar, voy a utilizar la misma terminología, en función de la desviación estándar. 261 00:46:37,900 --> 00:46:43,760 Aquí vemos que utiliza sigma, porque se está refiriendo a una población, a un número de datos infinito. 262 00:46:44,219 --> 00:46:49,980 Si nosotros tenemos una muestra, utilizaríamos esa desviación estándar de la muestra. 263 00:46:50,659 --> 00:46:57,780 Entonces vemos que podemos dividir nuestra distribución normal en una serie de intervalos. 264 00:46:59,280 --> 00:47:05,400 Y esos intervalos lo que van es a agrupar un porcentaje determinado del área de la curva. 265 00:47:05,400 --> 00:47:15,079 Esto es lo que a nosotros nos va a determinar su importancia de cara a la explicación de lo que son los intervalos de confianza. 266 00:47:15,679 --> 00:47:29,639 Mirad, el intervalo de confianza o el intervalo que está comprendido entre el valor medio en el centro más menos una unidad de desviación estándar de muestra o de población, 267 00:47:29,639 --> 00:47:40,079 es decir, estamos entre este punto y este punto, este área me comprende el 68,27% de los datos. 268 00:47:40,980 --> 00:47:50,460 Una distribución normal tiene también la propiedad que el intervalo que está entre el valor medio, mu o x media, 269 00:47:50,460 --> 00:48:05,880 Y dos veces la desviación estándar más menos 2S2 sigma, es decir, este área, comprende el 95,45% de los datos. 270 00:48:06,119 --> 00:48:17,139 Es decir, si yo sumo 13,6 más 34,1 más 34,1 y más 13,6 obtengo 95,45. 271 00:48:17,139 --> 00:48:39,440 Si yo considero en lugar de dos unidades de desviación estándar, considero tres unidades de desviación estándar, veis que a medida que se va abriendo el intervalo, a medida que la función se va acercando al eje X, voy abriendo más el rango de encontrar mayor número de datos. 272 00:48:39,440 --> 00:48:48,619 Así, con tres unidades de desviación estándar tengo el 99,73 y con cuatro el 99% de los datos. 273 00:48:49,239 --> 00:48:54,940 Vamos a interpretar qué significa esto de comprende un porcentaje de datos. 274 00:48:55,900 --> 00:49:02,280 Aquí lo tenéis en este recuadro y a partir de aquí es como vamos a interpretar nuestro intervalo de confianza. 275 00:49:02,280 --> 00:49:26,420 Cuando nosotros decimos que un intervalo contiene el 68,27% del área bajo la curva, es equivalente a decir que de cada 100 medidas, 68,27 están incluidas en el intervalo que está comprendido entre el valor medio y una unidad de desviación estándar a izquierda y a derecha. 276 00:49:27,320 --> 00:49:39,679 También es equivalente a decir que la probabilidad de que en este intervalo exista el valor verdadero o el valor medio es del 68,27%. 277 00:49:39,679 --> 00:49:47,500 Por tanto, la relación entre el tanto por ciento y la probabilidad, vemos que son equivalentes, se van a utilizar indistintamente 278 00:49:47,500 --> 00:49:54,699 y son de gran utilidad en la especificación o en la explicación de lo que son los intervalos de consulencia. 279 00:49:54,699 --> 00:49:59,960 Pues bien, lo vamos a dejar aquí y continuamos en la siguiente sesión.