1 00:00:02,990 --> 00:00:08,230 En este vídeo hablaremos de varios temas que si bien tienen cierta relación, puesto que están 2 00:00:08,230 --> 00:00:13,050 unidos por el hilo conductor de la tecnología, lo cierto es que cada uno de ellos por su importancia 3 00:00:13,050 --> 00:00:18,030 va a tener su protagonismo. Aunque por lo limitado el tiempo del vídeo simplemente enunciaremos las 4 00:00:18,030 --> 00:00:23,390 cuestiones fundamentales, por supuesto os animamos a profundizar en cada uno de ellos y para ellos 5 00:00:23,390 --> 00:00:28,929 os ofreceré recursos en los que podáis obtener más información. En este vídeo os voy a hablar 6 00:00:28,929 --> 00:00:34,409 de varias cuestiones divididas en tres bloques. El primer bloque estará dedicado a la identidad 7 00:00:34,409 --> 00:00:41,310 y a la huella digital. El segundo está dedicado a otros problemas que puedan surgir por un mal 8 00:00:41,310 --> 00:00:46,609 uso de la tecnología diferentes a los que vimos en el vídeo anterior. En concreto hablaremos de 9 00:00:46,609 --> 00:00:52,429 los deepfakes generados con IA, del grooming y de la dismorfia. Y por último en el tercer bloque 10 00:00:52,429 --> 00:00:57,490 hablaremos del uso abusivo de la tecnología, uso abusivo que puede protagonizar tanto un menor como 11 00:00:57,490 --> 00:01:02,670 un adulto y de la desconexión digital. Comencemos por el primer bloque, que como recordaréis 12 00:01:02,670 --> 00:01:07,189 es el dedicado a la identidad y a la huella digital. ¿Qué es la identidad digital? Es 13 00:01:07,189 --> 00:01:11,569 la información que hay sobre mí en internet, es decir, en redes sociales, en Google, en 14 00:01:11,569 --> 00:01:16,230 ChatGPT, en los videojuegos o en otras aplicaciones y servicios donde conste información sobre 15 00:01:16,230 --> 00:01:21,329 mí. Una cuestión muy importante es que esa identidad digital está formada tanto por 16 00:01:21,329 --> 00:01:24,769 lo que yo he dicho de mí mismo, por ejemplo, por la información que he publicado en mi 17 00:01:24,769 --> 00:01:29,329 cuenta de Insta o de LinkedIn como por la información que han dicho otros. Y como ya 18 00:01:29,329 --> 00:01:34,150 estabas imaginando, esta información puede ser buena o no tan buena. Por ello es fundamental 19 00:01:34,150 --> 00:01:39,129 conocer nuestra identidad digital y una vez la conozcamos ya veremos cómo gestionarla y cómo 20 00:01:39,129 --> 00:01:45,150 actuar, pero lo primero es conocerla. ¿Cómo podemos conocer nuestra identidad digital? Practicando lo 21 00:01:45,150 --> 00:01:50,370 que se conoce como vanity searching. Bajo este anglicismo se encuentra una práctica muy sencilla 22 00:01:50,370 --> 00:01:54,250 que consiste simplemente en buscarnos a nosotros mismos en internet. 23 00:01:54,549 --> 00:01:58,650 Tenemos que ser conscientes de que practicar ese vanity searching es fundamental 24 00:01:58,650 --> 00:02:05,790 y ha de realizarse con cierta frecuencia, tanto sobre nosotros mismos como, en su caso, sobre los menores, 25 00:02:06,189 --> 00:02:12,490 puesto que ese conocimiento es el que nos va a permitir poder actuar en el caso de que se haya producido alguna de las siguientes situaciones. 26 00:02:12,990 --> 00:02:15,530 Que la información que esté asociada a nuestro nombre sea falsa, 27 00:02:15,949 --> 00:02:19,629 que se haya incluido en webs o perfiles de terceros imágenes y vídeos nuestros, 28 00:02:19,629 --> 00:02:24,090 que aparezca nuestro nombre asociado a cuentas en redes sociales de las que no somos titulares 29 00:02:24,090 --> 00:02:29,330 o incluso que se ha creado un grupo o páginas para insultarnos con injurias, calumnias 30 00:02:29,330 --> 00:02:33,870 o que se haya utilizado nuestra denominación para cualquiera de estas cuestiones. 31 00:02:34,330 --> 00:02:37,449 Y es que el primer paso para solucionar algo es identificarlo. 32 00:02:38,069 --> 00:02:43,110 Como parte de esa tan necesaria educación digital, es imprescindible que los mayores seamos conscientes 33 00:02:43,110 --> 00:02:47,229 de la necesidad de hacerlo y de hacerlo con frecuencia y se lo digamos así a los menores. 34 00:02:47,229 --> 00:02:52,810 es importante buscarnos a nosotros mismos en internet y en las redes sociales tanto por nuestro 35 00:02:52,810 --> 00:02:58,030 nombre completo como por el nombre de usuario en la red o por un apodo entre amigos y tanto en las 36 00:02:58,030 --> 00:03:02,469 redes sociales en las que tengamos cuenta como en las que no y en el caso de que se vea algo que 37 00:03:02,469 --> 00:03:07,990 les haga daño transmitirles la necesidad de que se lo comuniquen a un adulto de referencia en las 38 00:03:07,990 --> 00:03:13,569 imágenes te dejo la información que hay sobre mí por ejemplo en google en chat gpt por ponerte solo 39 00:03:13,569 --> 00:03:19,310 algunos ejemplos, te animo a que hagas la prueba. Afortunadamente de momento no aparece nada malo 40 00:03:19,310 --> 00:03:23,509 ni nada falso sobre mí, espero que sea así eternamente, pero imaginamos que en vez de buenas 41 00:03:23,509 --> 00:03:27,849 noticias hubiese dado con un perfil en el que me suplanta la identidad o con un blog en el que me 42 00:03:27,849 --> 00:03:32,789 insultan o incluso con una información que aunque fuera cierta es de hace tantísimo tiempo que 43 00:03:32,789 --> 00:03:37,389 resulta absolutamente irrelevante y me puede causar un daño. Si se hubiera dado cualquiera de esas 44 00:03:37,389 --> 00:03:42,610 situaciones estas son las medidas que puedo y que por supuesto puedes adoptar para gestionar y cuidar 45 00:03:42,610 --> 00:03:46,550 tu identidad digital. 1. Denunciar el perfil falso en la propia 46 00:03:46,550 --> 00:03:51,229 plataforma. En la imagen te dejo el enlace y la captura de pantalla de los pasos a seguir 47 00:03:51,229 --> 00:03:55,830 en Instagram, pero cada red social tiene su mecanismo directo para denunciar la suplantación 48 00:03:55,830 --> 00:04:00,250 de identidad. Y recuerda que, además, puedes revisar todo lo que te conté en el vídeo 49 00:04:00,250 --> 00:04:04,729 sobre suplantación de identidad. Aprovecho para recordarte que si se dieran las circunstancias, 50 00:04:04,909 --> 00:04:07,849 podrías acudir a la Agencia Española de Protección de Datos. 51 00:04:07,849 --> 00:04:14,509 2. En caso de tratarse de un caso de injurias y calumnias, siempre puedes acudir a la vía judicial 52 00:04:14,509 --> 00:04:23,209 3. Por último, si lo que has encontrado es información que hay sobre ti, pero que resulta absolutamente irrelevante, puedes ejercer tu derecho al olvido 53 00:04:23,209 --> 00:04:30,649 Como en otros vídeos otros compañeros han profundizado en estos derechos, me limito a incluirte aquí el enlace para que lo ejerzas 54 00:04:30,649 --> 00:04:36,610 Y recordarte que la LOPDGDD prevé tanto el derecho al olvido en buscadores como el derecho al olvido en redes sociales 55 00:04:36,610 --> 00:04:41,170 tal y como puedes ver en la imagen que ves en pantalla. Ten en cuenta que el derecho a olvido 56 00:04:41,170 --> 00:04:46,050 no es absoluto, es decir, quizás lo ejerzas y te lo denieguen. En las imágenes puedes ver 57 00:04:46,050 --> 00:04:51,670 información de interés para profundizar en ello. Antes de pasar al siguiente bloque, quiero hacer 58 00:04:51,670 --> 00:04:56,670 una pequeña mención a la huella digital. Creo que el propio nombre muestra claramente lo que es. La 59 00:04:56,670 --> 00:05:01,189 huella digital es el rastro que vamos dejando en internet, rastro que de nuevo puede ser positivo, 60 00:05:01,350 --> 00:05:06,029 negativo o neutro, rastro que puede ser más grande o más pequeño, que puede estar más actualizado o 61 00:05:06,029 --> 00:05:10,930 menos, pero la realidad y el mensaje clave es que todo lo que hacemos en internet, incluso lo que 62 00:05:10,930 --> 00:05:15,610 hicimos hace muchos años y de lo que quizás ni nos acordamos, tiene consecuencias y a veces no 63 00:05:15,610 --> 00:05:22,509 buenas. En las imágenes puedes ver algunos ejemplos. Por ello la idea fundamental es piensa tres veces 64 00:05:22,509 --> 00:05:27,529 antes de publicar y con tres igual me he quedado corta. Tenemos que pensar en si en un remotísimo 65 00:05:27,529 --> 00:05:32,069 caso lo que estamos publicando nos puede generar algún problema, en si quizás sin querer estamos 66 00:05:32,069 --> 00:05:36,009 compartiendo información, a lo mejor de manera indirecta o en segundo plano, que no queremos 67 00:05:36,009 --> 00:05:40,449 compartir y por supuesto si lo que estamos compartiendo puede estar incumpliendo alguna 68 00:05:40,449 --> 00:05:45,810 normativa como la de protección de datos o la de propiedad intelectual. Por tanto, de nuevo, 69 00:05:45,930 --> 00:05:51,310 lo que debemos hacer como educadores y por supuesto también como familias es formar, formar y formar. 70 00:05:52,730 --> 00:05:56,870 Entramos ya en el segundo bloque de este vídeo en el que, como te adelantaba, vamos a comentar 71 00:05:56,870 --> 00:06:01,610 algunos problemas que pueden surgir mientras usamos la tecnología, especialmente mientras 72 00:06:01,610 --> 00:06:07,490 los menores lo usan tanto en las redes sociales como la IA, porque sí, los menores de 8 o 9 años 73 00:06:07,490 --> 00:06:13,069 están utilizando ChatGPT. Y no solo para lo que les ha ido con los deberes, sino seguramente para 74 00:06:13,069 --> 00:06:17,610 otras cosas mucho más sorprendentes. Te animo a que veas este vídeo que grabé y compartí en mi 75 00:06:17,610 --> 00:06:22,069 cuenta de Instagram Aprendiendo con Dabara y te adelanto que ya no volverás a ver la isla de las 76 00:06:22,069 --> 00:06:26,209 tentaciones de la misma manera. Y no, no me he vuelto loca, sigo hablando de inteligencia artificial 77 00:06:26,209 --> 00:06:32,209 y de menores. Sobre la IA, aunque habría muchísimo que decir por lo limitado del vídeo, voy a comentar 78 00:06:32,209 --> 00:06:37,069 brevemente el tema de los deepfakes. Aunque por desgracia todos estamos más que familiarizados 79 00:06:37,069 --> 00:06:41,769 con este término, voy a explicar lo que es por si acaso alguien no lo conoce. Los deepfakes son 80 00:06:41,769 --> 00:06:47,389 imágenes, vídeos o audios creados con IA que parecen reales pero no lo son. Es decir, te puede 81 00:06:47,389 --> 00:06:52,529 llegar por whatsapp la foto de tu compañera desnuda, pero eso no es su cuerpo desnudo. Lo que han hecho 82 00:06:52,529 --> 00:06:56,970 ha sido coger una foto de tu compañera, subirla a una aplicación de IA que pone cuerpos desnudos 83 00:06:56,970 --> 00:07:04,649 y tachán, imagen generada y daño hecho. Tan duro como simple. De hecho, más del 95% 84 00:07:04,649 --> 00:07:09,470 de los deepfakes son de carácter pornográfico y prácticamente todos son protagonizados 85 00:07:09,470 --> 00:07:15,149 o mejor dicho, sufridos por mujeres e incluso a veces por niñas. Sobre los deepfakes me 86 00:07:15,149 --> 00:07:20,430 gustaría dejar claras dos ideas. La primera, o formamos en valores o todo lo que viene 87 00:07:20,430 --> 00:07:21,750 solo va a ir a peor y peor. 88 00:07:22,290 --> 00:07:24,009 ¿Por qué os digo esto? Por un caso real. 89 00:07:24,649 --> 00:07:27,889 Os cuento, a los pocos días de que saliese a la luz el caso de Almendralejo, 90 00:07:28,269 --> 00:07:30,569 fui a dar una charla a unos alumnos de primero de bachiller 91 00:07:30,569 --> 00:07:32,829 de un colegio de alguna ciudad de España. 92 00:07:33,790 --> 00:07:37,569 Les hablé del tema de los deepfakes y uno de los alumnos me levantó la mano 93 00:07:37,569 --> 00:07:41,689 y me dijo, bueno, es que eso que estás contando no es verdad. 94 00:07:42,129 --> 00:07:45,529 Y le dije, ah, no, dime que no es verdad porque igual no me he expresado bien. 95 00:07:45,529 --> 00:08:01,209 Y me respondió, a ver, es que tú has dicho que los chavales utilizaron IA para desnudar a la compañera y que yo sepa, para desnudar a alguien hay que tocarla y la chica no estaba ni en la misma casa que los chicos, así que, ¿cómo podían tocarla para desnudarla? 96 00:08:01,209 --> 00:08:08,810 los chavales solo querían hacer una gracia no veo tanto problema apostillo más allá de lo que le 97 00:08:08,810 --> 00:08:14,230 contesté que ahora os lo digo no os voy a dejar con la duda lo que quiero plantearos es el problema 98 00:08:14,230 --> 00:08:19,029 en el argumento del chico que me preguntó era la tecnología o era una ligera por no decir otra 99 00:08:19,029 --> 00:08:25,310 cosa confusión o desconocimiento del valor del respeto la privacidad la intimidad la empatía y 100 00:08:25,310 --> 00:08:30,610 es que todos medio asumimos con normalidad que si desnudamos a alguien en persona sin su 101 00:08:30,610 --> 00:08:36,649 consentimiento está mal pero parece y sobre todo entre los menores hay una cierta creencia de que 102 00:08:36,649 --> 00:08:42,110 si lo hago con ella tampoco está tan mal como que si lo haces vía internet no hay problema y este 103 00:08:42,110 --> 00:08:48,149 error sólo se quita con educación y en mi opinión con educación en lo online desde muy pequeños 104 00:08:48,149 --> 00:08:53,870 desde mucho antes de darles el primer móvil y por eso aquí me permito recomendaros los cuatro 105 00:08:53,870 --> 00:08:58,970 cuentos que integran el móvil que todo lo sabía, cuentos para familias en la era digital. Y aunque 106 00:08:58,970 --> 00:09:04,649 como Paco Umbral os he hablado de mi libro un poquito, bueno de mis cuentos, que del libro para 107 00:09:04,649 --> 00:09:08,909 padres todavía no he hablado, no se me ha olvidado que os he prometido que os iba a contar lo que le 108 00:09:08,909 --> 00:09:13,330 dije al alumno que me dijo que no veía tanto problema en el caso Almendralejo porque todo 109 00:09:13,330 --> 00:09:19,370 era una broma. Le dije ok, cogiendo tu argumento te digo que yo he venido a este colegio en coche, 110 00:09:19,370 --> 00:09:24,850 me quedan unas cuantas horas hasta llegar a mi casa así que al salir aposta voy a acelerar en 111 00:09:24,850 --> 00:09:28,649 un paso de cebra y le voy a romper una pierna al primero que pase o si quieres le mato lo que tú 112 00:09:28,649 --> 00:09:33,370 quieras y cuando venga la policía a pedirme explicaciones y responsabilidades le voy a decir 113 00:09:33,370 --> 00:09:38,870 con tu argumento que no he sido yo ha sido mi coche la cara del alumno era para verla claro y 114 00:09:38,870 --> 00:09:44,509 añadí lo veas como lo veas yo te digo lo que hay para la ley tanto la IA como el coche son 115 00:09:44,509 --> 00:09:49,129 herramientas, herramientas que me dan para utilizar cumpliendo las normas y si no lo hago 116 00:09:49,129 --> 00:09:54,669 la excusa de no sabía, era una broma, no vale. Así que de nuevo acabo como empecé, formación, 117 00:09:54,809 --> 00:10:00,009 formación y formación. La segunda cuestión que quiero remarcar es que hacer un deepfake no es 118 00:10:00,009 --> 00:10:04,529 una broma ni algo que no tenga consecuencias. De hecho a pesar de que no exista una ley de 119 00:10:04,529 --> 00:10:09,649 deepfakes como tal, este hecho puede subsumirse en varios tipos previstos en el código penal, 120 00:10:09,649 --> 00:10:17,850 entre ellos los artículos 197, 189 o 173. Además, el Consejo de Ministros, a fecha de grabación del 121 00:10:17,850 --> 00:10:22,710 presente vídeo, remitió al Congreso el proyecto de ley para la protección de las personas menores 122 00:10:22,710 --> 00:10:27,370 de edad en los entornos digitales, en el que se incluye, entre otras cuestiones, tipificar como 123 00:10:27,370 --> 00:10:33,169 delito tanto los deepfakes como el grooming del que hablaremos a continuación. Además, os recuerdo 124 00:10:33,169 --> 00:10:38,289 aquí el importantísimo papel que puede desempeñar el canal prioritario de la EPD, que ya expliqué en 125 00:10:38,289 --> 00:10:43,009 el vídeo anterior y que permite solicitar la retirada de ese contenido sexual o íntimo. Por 126 00:10:43,009 --> 00:10:48,289 ello es fundamental que los alumnos, los adultos, conozcamos esta herramienta y la compartamos con 127 00:10:48,289 --> 00:10:53,629 los menores. Por último, recuerdo la responsabilidad legal que tienen los padres por los actos cometidos 128 00:10:53,629 --> 00:10:58,850 por los menores en internet. Para no extenderme más, os remito a esta interesantísima infografía 129 00:10:58,850 --> 00:11:05,110 hecha por la EPD. El segundo problema que quiero comentar es el conocido como grooming. En este 130 00:11:05,110 --> 00:11:09,330 caso el acosador es una persona adulta y la víctima un menor. Lo que persigue el acosador 131 00:11:09,330 --> 00:11:13,950 suele estar relacionado con la obtención de favores sexuales, ya sea la obtención de imágenes 132 00:11:13,950 --> 00:11:20,490 de contenido erótico del menor que el acosador subirá o venderla a cambio de una remuneración 133 00:11:20,490 --> 00:11:25,669 económica en foros de pornografía o pederastia. Por desgracia, ya ha habido varios casos y es 134 00:11:25,669 --> 00:11:30,570 mucho más frecuente de lo que pensamos. En pantalla y en el material adicional puedes ver 135 00:11:30,570 --> 00:11:34,850 algunas noticias que así lo acreditan, junto a los enlaces en los que puedes profundizar en 136 00:11:34,850 --> 00:11:40,149 cada uno de ellos. Si bien no está definido como delito de grooming, lo cierto es que el artículo 137 00:11:40,149 --> 00:11:45,830 183 bis del Código Penal establece un tipo que en determinadas ocasiones puede cuadrar con lo 138 00:11:45,830 --> 00:11:52,149 que ocurre en el grooming. Puedes ver su texto en pantalla. Y además el proyecto de ley del que os 139 00:11:52,149 --> 00:11:56,370 hablaba de protección del menor en el entorno digital quiere reformar el Código Penal para 140 00:11:56,370 --> 00:12:01,429 introducir el delito de grooming. De nuevo es fundamental la prevención y la educación. Con 141 00:12:01,429 --> 00:12:06,809 ánimo de ayudarte te incluyo aquí varias ideas clave para transmitir a los menores 1 nunca envíes 142 00:12:06,809 --> 00:12:11,769 fotos vídeos ni audios de carácter íntimo o sexual incluso si quien te lo pide te ha enviado 143 00:12:11,769 --> 00:12:17,110 previamente contenido similar 2 no hacerte solicitudes de amistad de personas desconocidas 144 00:12:17,110 --> 00:12:22,950 3 desconfía si alguien quiere hablar solo contigo o te halaga mucho 4 si alguien por internet te 145 00:12:22,950 --> 00:12:28,929 dice esto es nuestro secreto cuéntaselo a un adulto ya 5 si alguien en un videojuego en una red social 146 00:12:28,929 --> 00:12:30,769 te dice que tiene fotos tuyas y te 147 00:12:30,769 --> 00:12:32,990 chantajea para que lo envíes 148 00:12:32,990 --> 00:12:34,690 más, díselo ya a un adulto. 149 00:12:35,190 --> 00:12:36,950 Seis, no compartas tu ubicación 150 00:12:36,950 --> 00:12:38,950 ni información personal en videojuegos o en 151 00:12:38,950 --> 00:12:41,090 redes. Siete, bloquea y denuncia 152 00:12:41,090 --> 00:12:42,850 si alguien te envía cosas raras o fuera 153 00:12:42,850 --> 00:12:45,070 del lugar. Y ocho, recuerda que siempre 154 00:12:45,070 --> 00:12:46,909 puedes pedir ayuda a tu familia o 155 00:12:46,909 --> 00:12:48,750 tus profes si pasa algo malo en internet. 156 00:12:49,470 --> 00:12:50,690 Como tercer y último punto, 157 00:12:51,149 --> 00:12:52,809 queremos abordar, aunque 158 00:12:52,809 --> 00:12:54,970 por desgracia, bueno, es más común 159 00:12:54,970 --> 00:12:56,950 el tema de la desmorfia. En su día 160 00:12:56,950 --> 00:13:00,429 se conoció como dismorfia Snapchat, pero ahora mismo ya se habla solo de dismorfia, 161 00:13:00,750 --> 00:13:04,649 porque está relacionada con los filtros, y filtros hay prácticamente en todas las 162 00:13:04,649 --> 00:13:08,610 redes sociales. ¿Qué es la dismorfia? Es el deseo de querer 163 00:13:08,610 --> 00:13:13,389 parecerte a tu selfie. Y tú dirás, pero si mi selfie soy yo. Ya hay un truco, es querer 164 00:13:13,389 --> 00:13:17,549 parecerte a tu selfie con filtros. Supongo que te habrás hecho alguna vez una foto con 165 00:13:17,549 --> 00:13:22,269 filtro y parece magia. Ni un grano, ni una perfección, ni ojeras, ni nada. ¿Y qué 166 00:13:22,269 --> 00:13:26,769 de malo tiene eso? Pues que los menores, y a veces los adultos, nos hacemos tantas fotos 167 00:13:26,769 --> 00:13:31,789 con filtros que luego cuando nos miramos al espejo no nos soportamos y eso nos lleva a acudir al 168 00:13:31,789 --> 00:13:37,309 cirujano. Y es que aunque suene increíble, más del 20% de las cirugías estéticas son en personas 169 00:13:37,309 --> 00:13:43,429 de 18 a 24 años y nos lleva a temas de inseguridad, de ansiedad... Por ello voy a abordar este tema con 170 00:13:43,429 --> 00:13:48,789 tres pausas muy concretas. Primero, habla con el menor. Mostrarle cuentas como belleza falsa a 171 00:13:48,789 --> 00:13:53,909 Instagram para que sean conscientes de que no todo lo que ve internet es cierto, ni perfecto, ni real. 172 00:13:54,490 --> 00:13:58,970 Segundo, no prohibir los filtros, pero hablar sobre ello y en la medida posible minimizar su uso. 173 00:13:59,470 --> 00:14:03,710 Quizás podamos practicar buenos hábitos como cada vez que me hago una foto con filtro, me hago una sin. 174 00:14:04,029 --> 00:14:08,370 A todos nos gusta salir bien y no hay problema en que repitas la foto, pero que sea auténtica. 175 00:14:09,070 --> 00:14:12,590 Tercero, educar sobre el valor de la belleza real, interior y exterior. 176 00:14:13,090 --> 00:14:15,450 Y esto hay que hacerse tanto en el cole como en la familia. 177 00:14:16,169 --> 00:14:22,029 Por último, haremos un breve comentario de algo que si bien se ha considerado como derecho, es sin duda una necesidad. 178 00:14:22,570 --> 00:14:24,570 ¿De qué estoy hablando? De la desconexión digital. 179 00:14:25,269 --> 00:14:27,730 ¿Sabes cuánto tiempo pasas al día mirando a la pantalla? 180 00:14:28,289 --> 00:14:30,730 Y sí, cuenta el móvil, la tablet, el ordenador, la tele. 181 00:14:31,149 --> 00:14:34,830 Si te asusta solo pensarlo, mira al menos el móvil y mira en qué lo inviertes. 182 00:14:35,230 --> 00:14:36,830 ¿Eres consciente? ¿Te gusta lo que ves? 183 00:14:37,169 --> 00:14:40,070 Si quieres, puedes hacer la prueba también con los menores que tienes cerca. 184 00:14:40,990 --> 00:14:44,889 Aunque todavía no se ha calificado como adicción como tal, 185 00:14:45,049 --> 00:14:48,169 es cierto que prácticamente a diario vemos titulares en las noticias 186 00:14:48,169 --> 00:14:51,490 que hablan de la adicción a Internet, a las redes sociales, al móvil en general. 187 00:14:51,490 --> 00:14:54,830 y lo hacen para referirse tanto a los menores como a los adultos. 188 00:14:55,409 --> 00:14:58,970 Más allá de que no sea considerado como adicción en términos médicos, 189 00:14:59,350 --> 00:15:03,809 la realidad es que es innegable que en muchos casos lo que hay en la actualidad es un uso abusivo. 190 00:15:04,289 --> 00:15:08,009 Te compartimos un pequeño extracto de un documento realizado por la EPD 191 00:15:08,009 --> 00:15:11,110 que profundiza en estas cuestiones y que te animamos a leer. 192 00:15:11,789 --> 00:15:14,389 Pero nosotros nos vamos a centrar en la desconexión digital. 193 00:15:15,009 --> 00:15:19,149 Como os decía al comienzo, la desconexión digital ha sido considerado como derecho digital, 194 00:15:19,149 --> 00:15:20,929 tal y como puedes ver en la imagen. 195 00:15:22,250 --> 00:15:26,610 Este derecho a la desconexión digital supone que todo trabajador o teletrabajador 196 00:15:26,610 --> 00:15:30,370 tiene derecho a no contestar a mensajes de trabajo fuera de su horario laboral 197 00:15:30,370 --> 00:15:34,830 y exige que la empresa, en este caso el cole, cumpla con dos obligaciones. 198 00:15:35,929 --> 00:15:40,190 La primera obligación es elaborar una política que garantice esa desconexión digital. 199 00:15:40,769 --> 00:15:44,490 No hay un modelo oficial de política y es necesario personalizarlo al máximo. 200 00:15:44,950 --> 00:15:48,429 Por eso, si eres un colegio concertado o privado y no cuentas con esa política, 201 00:15:48,429 --> 00:15:54,649 escríbenos es algo prácticamente hacemos todos los días la segunda obligación es formar a los 202 00:15:54,649 --> 00:15:59,710 trabajadores sobre uso razonable de la tecnología pero no debemos confundir el derecho a la 203 00:15:59,710 --> 00:16:04,750 desconexión digital con el derecho no consagrado en la ley sino como inherente a todo ser humano 204 00:16:04,750 --> 00:16:10,389 y quizás la necesidad de hacer un detox digital de vez en cuando que no es sino dejar todas las 205 00:16:10,389 --> 00:16:16,210 pantallas a un lado te decimos algunos trucos muy sencillos para conseguirlo primero deja el móvil 206 00:16:16,210 --> 00:16:20,850 completamente apartado o directamente ni lo saques del bolsillo para no hacer fabbing y 207 00:16:20,850 --> 00:16:25,950 prestar 100% de tu atención a la persona que tienes delante. Segundo, pon los dispositivos 208 00:16:25,950 --> 00:16:30,750 en moda bien al menos media hora al día. Tercero, desactiva las notificaciones que no sean 209 00:16:30,750 --> 00:16:35,730 imprescindibles. Cuatro, pon el móvil en blanco y negro, lo mirarás menos. Cinco, elimina 210 00:16:35,730 --> 00:16:41,210 aplicaciones que no utilizas y practica ese antidiógenos digital tan necesario. Hay muchas 211 00:16:41,210 --> 00:16:45,490 cosas que puedes hacer, pero de momento ponte con las que te hemos dicho y todo ese tiempo que vas 212 00:16:45,490 --> 00:16:49,250 a ganar, aprovechalo para hacer actividades al aire libre, para disfrutar de una buena charla, 213 00:16:49,309 --> 00:16:54,429 de un paseo, de un concierto o simplemente para leer un libro y descansar. Hacer un uso responsable 214 00:16:54,429 --> 00:16:59,570 y saludable y controlado de la tecnología te permitirá disfrutar de todas las ventajas y 215 00:16:59,570 --> 00:17:04,849 lograr que tú utilices la tecnología y no al revés y como siempre digo que la tecnología te 216 00:17:04,849 --> 00:17:09,450 haga mejor. Como bonus track y teniendo en cuenta que ya nos hemos extendido más de la cuenta os 217 00:17:09,450 --> 00:17:13,750 dejamos aquí algunos síntomas que quizás pueden revelar que tu relación con la tecnología no es 218 00:17:13,750 --> 00:17:20,009 del todo sana y deberías mejorar un poquito. Se trata de 14 síntomas que debes auto evaluarte y 219 00:17:20,009 --> 00:17:24,809 ser sincero contigo mismo. Los tienes en la cuenta de Instagram de Aprendiendo con Davara. Si no 220 00:17:24,809 --> 00:17:29,849 conoces alguno puedes pinchar en el enlace y accederás a la explicación. Solo te diré una 221 00:17:29,849 --> 00:17:34,369 cosa, cuando doy charlas a partir de primero de la ESO suelo hacer la comprobación con ellos y en 222 00:17:34,369 --> 00:17:39,349 una ocasión un alumno dijo tener los 14 síntomas y ¿sabéis lo que pasó? Que se llevó una ovación 223 00:17:39,349 --> 00:17:43,549 de todos sus compañeros que estaban con él en el salón de actos durante la charla. Me quedé 224 00:17:43,549 --> 00:17:48,230 sin palabras. Más allá de que fuera cierto o una simple fantasmada para llamar la atención de sus 225 00:17:48,230 --> 00:17:53,990 compañeros, lo que sí os digo es que los menores suelen tener unos 7 u 8 síntomas de media. De 226 00:17:53,990 --> 00:17:58,930 nuevo creo que la educación y los hábitos aquí vuelven a jugar un papel fundamental. Y antes de 227 00:17:58,930 --> 00:18:04,250 compartir contigo los 14 síntomas para que si quieres hagas la prueba, te dejo una idea fundamental 228 00:18:04,250 --> 00:18:16,609 en forma de imagen. Aquí van los 14 síntomas para que valores si la relación que tienes con la 229 00:18:16,609 --> 00:18:20,950 tecnologías como quieras que sea. ¿Es adecuada? ¿Es abusiva? ¿Podría ser más saludable? 230 00:18:21,329 --> 00:18:25,630 Sé sincero contigo mismo y adopta las medidas que consideres para lograr que la tecnología 231 00:18:25,630 --> 00:18:30,410 te haga mejor. Mejor persona, mejor profe, mejor padre, mejor amigo. A por ello y si 232 00:18:30,410 --> 00:18:32,690 necesitas ayuda ya sabes dónde encontrarme.