Tecno

Tecnología en Gral

Los mejores juegos con más de 20 años que se siguen jugando hoy en día

650_1200

Del mismo modo en que existen clásicos atemporales en el cine o la música que siguen disfrutándose a día de hoy tanto o más que cuando aparecieron, la breve pero intensa historia de los videojuegos ya ofrece obras que consiguen calar lo suficiente en la cultura general como para trascender conceptos como las limitaciones tecnológicas o las propias tendencias del mercado. Sin embargo, la primera generación persistente de jugadores ha conseguido alargar el propio ciclo de vida de varios juegos concretos mucho más allá de lo que cabía esperarse en el momento en que fueron desarrollados. Y es que cuesta pensar hoy en día en que juegos sin las funciones Online actuales o continuas expansiones se hayan asentado de tal manera que la comunidad, no sólo no los ha olvidado, sino que prefiere jugarlos frente a las propuestas actuales. ¿Por qué? Los videojuegos actuales salen al mercado con un "ciclo vital" controlado por contenidos post-lanzamiento y soporte online Lo primero que hay que tener en cuenta es que a la hora de diseñar un juego hoy en día se le calcula un ciclo vital. Puede parecer lógico que si vamos a sacar una nueva entrega con periodicidad anual de 'Call of Duty' o de 'Assassin's Creed' se le deje de dar continuidad a los títulos de la misma IP que salieron hace dos o tres años, ya que prolongar excesivamente el soporte de las sagas anuales condicionaría las ventas de futuras entregas. Pero si lo pensamos detenidamente, a la hora de elaborar el primer 'Donkey Kong' de recreativa o con el estreno de 'Tomb Raider' en la época de las consolas de 32 bits, tanto los usuarios como el volumen de ventas y los métodos de distribución eran muy distintos. Esto no quiere decir, ni mucho menos, que los juegos más actuales y los que se hayan adaptado a los nuevos modelos de mercado no tengan la capacidad de convertirse en nuevos clásicos capaces de resistir firmemente el paso del tiempo. Como ya vimos anteriormente en ámbitos como la viabilidad de los remakes o la continuidad de los crackeadores de juegos, de nuevo la clave vuelve a estar en la propia comunidad de usuarios. La primera generación persistente de jugadores A diferencia de otras nuevas expresiones artísticas o culturales, durante los primeros años de la industria de los videojuegos, estos se habían enfocado como un producto destinado a los jugadores más jóvenes, en cierta manera como un reclamo moderno y divertido, y en otro como un sustituto mucho más elaborado que los propios juguetes de toda la vida. Sin embargo, fue a partir de finales de los años 80s y sobre todo durante la segunda mitad de la década de los 90s que los usuarios continuaron su afición a los videojuegos tras su etapa adolescente. Curiosamente a día de hoy es normal ver a personas de todas las edades y clases sociales disfrutando de sus juegos favoritos en la tablet o el móvil, pero hay que tener en cuenta que la videoconsola conectada permanentemente en la televisión principal no fue algo que fuera muy extendido hace 20 o 30 años atrás y mucho menos que el concepto de dispositivo de entretenimiento digital casero o portátil estuviera en prácticamente todos los hogares. La actual generación persistente de videojuegos demanda nuevas experiencias y eso es lo que condiciona la propia industria y hace que se reinvente año tras año, cambiando sus sistemas de monetización, explorando los límites del software y el hardware e incluso buscando nuevos sistemas de inmersión y entretenimiento constantemente. Sin embargo, e independientemente de todo lo anterior, existe un enorme número de jugadores que continúan jugando a día de hoy con sus juegos favoritos del pasado. ¿Eso quiere decir que ciertos títulos o géneros tocaron techo hace 20 años? El factor nostalgia, un elemento esencial No nos vamos a engañar a estas alturas. A pesar de que el pixel art está en alza y los diseños poligonales minimalistas cada vez cobran un mayor protagonismo, si estamos dispuestos a regresar a los acabados técnicos de hace 20 o 30 años es por el carisma o la nostalgia que desprenden unos juegos cuyos gráficos todavía estaba alejados de los estándares de la alta definición y los 60fps que tanto gustan en la actualidad. En algunos casos, relacionamos estos gráficos con etapas concretas de nuestro pasado en el caso de los jugadores que somos más veteranos, o los hemos interiorizado como parte de la iconografía popular, como se da entre los usuarios más jóvenes. ¿Qué estaba haciendo yo cuando empecé a jugar al primer 'Age of Empires'? ¿Este es el legendario 'Pokémon Azul' del que tanto se ha hablado en internet?¿Seguirá siendo tan adictivo 'Counter Strike' como aquellas tardes que me pasaba en el "cyber" con mi grupo de amigos? Los jugones de la "Generación X" supieron perfectamente lo que era sacarle partido a cada juego. Hoy en día es muy común que nos habituamos a acumular cantidades ingentes de juegos en nuestras bibliotecas digitales gracias a las promociones de suscripciones premium en consolas o las legendarias ofertas de plataformas como Steam, GOG o Humble Bundle, pero los jugones de la generación X saben perfectamente lo que es sacarle partido a cada juego. No es que fueran mejores o peores. Los había más exigentes, más limitados, más extraños o más sencillos. Simplemente, eran otros tiempos. Y pese a que los juegos que se sostienen hoy en día editados entonces lo hacen por apuesta competitiva, es innegable que existe un elemento intangible añadido que le dá un encanto especial, compensando las limitaciones de la época. Una curva enorme de aprendizaje Muchas veces la industria evoluciona demasiado deprisa y otras veces lo hace sin que nos demos cuenta y de manera sutil. Sin embargo hay un patrón que persiste en todos los títulos que han sobrevivido al paso del tiempo independientemente de su apartado técnico o sus carencias con respecto a la nueva hornada de juegos: su elemento competitivo. No se trata únicamente de competir contra otros jugadores, sino de superarse uno mismo. En los juegos de arcade clásicos es cierto que existía una tabla de clasificaciones que registraba nuestra puntuación, y eso marcaba una diferencia, pero los jugadores que actualmente dedican su tiempo a 'Donkey Kong', 'Street Fighter II' o ' Age of Empires' buscan perfeccionar una premisa muy simple de estos juegos: son relativamente sencillos de entender pero dominarlos requiere una cantidad ingente de tiempo. Ahí es donde entre el componente de exploración de las propias reglas y posibilidades del juego, y posiblemente no haya mejor sistema para ponerlas a prueba que compitiendo con otros usuarios que hayan invertido años enteros en encontrar un sistema de juego entretenido pero eficiente. El competitivo que puede ofrecer 'Counter Strike' o 'Warcraft 3' ha evolucionado drásticamente desde que se inició, y sus jugadores con él. La continuidad de un juego está acotada por dos segmentos que básicamente son los agentes fundamentales de la industria: los jugadores y los desarrolladores Con la llegada de actualizaciones, ajustes, expansiones y balances, se crea un sistema cada vez más perfeccionista y exigente. De este modo, 'League of Legends' introduce nuevos personajes y reajusta su sistema de juego cada 20 días o de manera mensual, según sus propios jugadores profesionales. Esto hace que si queremos competir a nivel profesional debamos dedicarle una dedicación total y transformar nuestro sistema de juego a estos rebalances. Eso, precisamente, es lo que no ocurre con los clásicos. En otros casos, como 'Pokémon' o la serie 'Super Mario', competimos contra nuestros conocidos o contra nosotros mismos en base a logros o maneras de sacar el máximo partido a un juego. Precisamente esa última premisa ha sido la clave del último juego del popular fontanero de Nintendo con 'Super Mario Maker': gráficos con un aire retro, pero ofreciendo la posibilidad de hacer que todo el mundo se enfrente a nuestro desafío. Pero, a fin de cuentas, la vida de los propios juegos está acotada por dos segmentos que básicamente son los agentes fundamentales de la industria: los jugadores y los desarrolladores. ¿Quién mantiene con vida estos juegos y cómo lo hace? Con el anuncio de los nuevos juegos que formarían parte del torneo EVO 2016, el más prestigioso evento de juegos de lucha, se anunció que 'Street Fighter V' tomaría el relevo de 'Street Fighter IV' de cara a las inscripciones. Como resultado hubo un enorme descontento por parte de miles de fans que deseaban medir sus habilidades, pulidas y perfeccionadas con la cuarta entrega desde 2008, pero por otro lado se batió el récord de inscripciones en un mismo juego. Esto no es producto de la casualidad. In 4 days, SFV has broken the record for the most entrants at Evo in a single game! This is going to be a crazy year! #Evo2016— Evo (@evo2k) 22 de febrero de 2016 En 4 días, 'Street Fighter V' ha superado el récord de más inscripciones para el mismo juego en la historia del EVO. ¡Este va a ser un año de locura! Es cierto que el soporte que le ofrecen las desarrolladoras y editoras a cada juego es esencial, y hemos visto como incluso Blizzard ha actualizado recientemente juegos que editó antes del cambio de milenio y muy pronto seguirá haciéndolo con juegos de corte clásico para que puedan continuar jugandose en la actualidad. De hecho, a día de hoy la popularidad del 'StarCraft' original de 1998 sigue siendo más que envidiable en Asia pese a que el género de los juegos de estrategia sigue siendo uno de los más recurrentes en la actualidad. Es complicado llegar a entender el impacto de juegos como 'Counter Strike' hoy en día si no hacemos una retrospectiva de el enorme gancho que supuso ese título en los cibercafés y locutorios mucho antes de la época de Steam, pero no hay que olvidar que su primera versión, aparecida en 1999 nació de una modificación del primer 'Half- Life', y gradualmente se ha ido actualizando hasta convertirse en uno de los mayores referentes en la actualidad de los eSports. Sin embargo, no todo se trata de una cuestión de soporte por parte de la propia desarrolladora. Hace falta una demanda equivalente por parte de los usuarios que insufle vida a los títulos y eso, al igual que el hecho de que un juego, una canción o una película sean un éxito que resistan en el tiempo, es una cuestión más próxima al contexto social y generacional que al corporativo, en el que desde luego la calidad del producto y el impacto desde el momento de su estreno son fundamentales para un buen asentamiento. No se trata únicamente de una cuestión de soporte por parte de la propia desarrolladora. Hace falta una demanda equivalente por parte de los usuarios Por supuesto, posicionar una marca comercial y evitar que valiosísimas licencias caigan en el limbo del abandonware son prioridades de las grandes compañías de software. Gracias a las reediciones de juegos clásicos, añadiendo elementos competitivos o actualizaciones que permitan ser usados en un mayor número de dispositivos con posibles mejorías, y sobre todo gracias a la magia de la distribución digital, se puede extender la vida útil algunos títulos legendarios. Pero los juegos de más tirón siempre consiguen hacerse un hueco gracias a la dedicación de los usuarios más espabilados, capaces de aplicar sus conocimientos de programación para que una licencia o un determinado juego no pase al olvido. Está en las editoras y desarrolladoras el aprovechar con mejor o peor fortuna oportunidades muy lucrativas sobre costos bastante asumibles. A veces se trata de algo tan sencillo como incluir un juego de la talla del 'Doom' original con la reserva del reboot de la saga que llegará de manos de iD Software el próximo mes de mayo, lo cual será posible gracias a la retrocompatibilidad de Xbox One con Xbox 360. Otras veces, de ofrecer remakes con opciones de multijugador online y soporte a los sistemas operativos actuales. Pero la idea detrás de estas nuevas adaptaciones es la misma: ampliar la cobertura de la marca y que siga sirviendo como embajadora de la propia compañía. Algunos clásicos muy activos a día de hoy. Por fortuna, si nos pusieramos a hacer un listado exhaustivo sería muy complicado terminarlo. Esta muy escueta selección de títulos representa algunos de los juegos que siguen ofreciendo alegrías y desafíos a los jugadores tras aproximadamente décadas desde su debut. Starcraft El fantástico referente de Blizzard en cuestión de estrategia sigue siendo uno de los juegos más jugados en Asia, casi poniendo en un compromiso el éxito de su más reciente secuela durante su lanzamiento y contando con una edición especial única enfocada al formato de la competición. De hecho 'Starcraft' y su ampliación 'StarCraft: Brood War' siguen siendo a día de hoy una auténtica sensación en Corea del Sur a pesar de que su salida para PC fue en 1998. Counter Strike Para millones de usuarios 'Counter Strike' sigue siendo el referente indiscutible en cuanto a Shooters en primera persona, el cual comenzó como un proyecto humilde basado en el aprovechamiento de los recursos de 'Half-Life' y se convirtió en un éxito por méritos propios, siendo adquirido por la propia Valve. La última actualización de la versión original, realizada hace un par de años, corregía problemas que se daban en sus servidores dedicados. Como curiosidad, en el momento de escribir estas líneas está ofreciendo partidas para docenas de miles de jugadores en todo el mundo. Pokémon Edición Roja, Verde y Azul Con motivo de la celebración del 20º aniversario de la saga de Pokémon, la propia Nintendo hizo una reedición de estos las primeras versiones aparecidas junto con la edición especial Pikachu, las cuales han coronado las ventas de la eShop recientemente. A pesar de que en las versiones orientales debutaron las versiones Roja y Verde, entre los cambios occidentales se nos ofreció la versión Azul, aunque igualmente podíamos elegir a cualquiera de los tres Pokémon iniciales. Hoy, estos juegos tienen un enorme impacto en la cultura global. Super Mario World Para muchos, 'Super Mario World' es el mejor juego de Mario, y su llegada en exclusiva a las stores digitales de las New 3DS no sentó nada bien a los usuarios de los primeros modelos de las actuales portátiles de Nintendo.De cualquier modo, gracias a la Consola Virtual, el juego se encontró disponible en Wii, así como para Game Boy Advance en una edición muy especial conocida como 'Super Mario Advance 2'. Final Fantasy VII El clásico de Squaresoft fue **uno de los títulos que marcó la diferencia de la primera PlayStation****** y el anuncio de su muy esperado remake fue aclamado durante el E3 2015. Sin embargo, Cloud y el resto de AVALANCHA siguen dando la oportunidad de conocer su aventura cada vez en más sistemas gracias a sus continuas adaptaciones. La más reciente, a finales del año pasado y para dispositivos iOS. Street Fighter II Ser uno de los juegos más vendidos de la historia de la Capcom y el buque insignia de un género es un enorme peso que han sabido aguantar Ryu, Chun Li y compañía. A pesar de que ya está disponible el quinto capítulo numerada de la saga, el auténtico boom cross-generacional lo encontramos en 'Street Fighter II', el cual ha aparecido en prácticamente todos los sistemas conocidos a través de recopilatorios, remixes o versiones adaptadas. Su próximo regreso será en las Consolas Virtuales de New 3DS. Diablo II No hace demasiados años que 'Diablo III' llegó a las estanterías, pero Blizzard sigue apostando por su legado jugable actualizando la secuela de esta saga que llegó a las estanterías nada menos que hace 16 años, pero lo más curioso es que parche 1.14a no es un caso excepcional ya que el anterior lo recibió hace cinco años. Todo un detalle para la activa comunidad de jugadores de este juego. Age of Empires El clásico de los RTS se encuentra viviendo una segunda juventud gracias a su reedición en HD aparecida en Steam en 2013. Pero desde luego, y a pesar de que la serie cuenta con una tercera parte, lo que nos pilló más por sorpresa fue la llegada de una muy reciente expansión a finales de 2015 en la que se sumaban las civilizaciones africanas, lo cual supuso una más que notable alegría para los fieles incondicionales de la saga. ¿Cómo serán los clásicos de 2036? Ni el mismísimo Shigeru Miyamoto podría hacer cábalas sobre lo que jugará e incluso cómo se jugará dentro de 20 años. Sin embargo, hoy por hoy hay géneros que cada vez están asentando con fuerza como los MOBAs (Multiplayer Online Battle Arenas), mientras que otras sagas se están adaptando gradualmente a las mecánicas de los Shooter como 'Resident Evil' en 'Umbrella Corps' o las recientes entregas de 'Fallout'. Si hacemos casos de las cifras de ventas, el formato de juegos de Activision- Blizzard con sagas como 'Call of Duty' o las expansiones de 'Warcraft' siguen ofreciendo vertiginosos beneficios, sin embargo, ahora mismo el referente es 'League of Legends', y sus 70 millones de usuarios registrados lo avalan. Apostar a largo plazo por la realidad virtual es complicado teniendo en cuenta que este año este nuevo formato estará solo en manos de los Early Adopters, pero ahora mismo hay dos conceptos que se están abriendo paso con una enorme contundencia en la industria: los free-to-play y los mid-core games. En ambos casos estamos hablando de un elemento nuevo en la ecuación que suman dos componentes adicionales: la capacidad de llegar a muchos más jugadores de manera más eficaz y que estos puedan empezar a sacarles provecho de manera instantánea. Seguramente eso haga que 'Candy Crush', llegado el momento, corra la misma suerte que los 'Angry Birds', básicamente porque una nueva generación de jugadores y usuarios quieren nuevas experiencias más profundas. Hay dos conceptos que se están abriendo paso con una enorme contundencia en la industria: los free-to-play y los mid-core games. Sea como sea, posiblemente ni John Romero y John Carmack hubieran apostado por que 'Doom' seguiría siendo jugado en el lejano año 2016; ni Ensemble Studios habría calculado que su saga de 'Age of Empires' acabaría recibiendo parches para mejorar la experiencia de juego a unos usuarios que, rodeados de juegos gratuitos con impresionantes gráficos producto de los motores gráficos de vanguardia, prefieren volver a llevar una vez más a Juana de Arco o a Genghis Khan a la batalla y más recientemente a Francisco de Almeida. Pero -como apuesta personal- es bastante probable que, a través de sistemas de vanguardia, con un aspecto que renovado pero fiel al original, y ya bien sea de manos de las editoras o de los propios fans, éstos personajes que ya forman parte de nuestra cultura no dejen de librar nuevas batallas dentro de dos décadas a manos de una nueva generación de jugadores y unos usuarios algo más veteranos. En Xataka Cómo Age of Empires II es uno de los juegos más vivos de la actualidad después de 16 años "Los eSports son el próximo negocio del billón de dólares". Entrevista en vídeo a Cristian Duarte, ex-jugador profesional Cómo se vive obsesionado con un solo videojuego ¿Es el principio del fin de los crackeadores de juegos? 17 cifras para entender lo que mueven los e-Sports En Vida Extra Alucinad con las millonarias cifras del Campeonato Mundial de League of Legends 2015 Los clásicos se actualizan: un emulador lleva los clásicos de NES al 3D También te recomendamos Con Windows 10 puedes jugar a la Xbox One en tu PC (y en el futuro quizás al revés) Cómo vender más de 500 millones de placas base: la historia de Asus Jugadores de Xbox One, la PS4 y PC unidos: eso es lo que plantea Microsoft con Cross-network Play - La noticia Los mejores juegos con más de 20 años que se siguen jugando hoy en día fue publicada originalmente en Xataka por Frankie MB .

Leer más »

Synology DiskStation DS216+, análisis: potente y versátil NAS multimedia

650_1200

Cada vez tenemos en casa más contenidos multimedia (audio, vídeo e imágenes) que progresivamente van incrementando su tamaño con los nuevos formatos de alta definición ocupando ingentes cantidades de memoria de almacenamiento. Si queremos tenerlos disponibles en todos los reproductores y pantallas del hogar, una opción pasa por ir copiándolos a memorias y discos duros externos o incluso a un servidor en la nube. Sin embargo, la fórmula más sencilla, eficiente y la que mejores resultados y tiempos de respuesta suele ofrecer es instalar un NAS (Network Attached Storage) en el hogar, un dispositivo pensado para crear y gestionar cómodamente nuestra propia nube personal de gran capacidad. En esta ocasión hemos tenido la oportunidad de probar a fondo el DiskStation DS216+ de Synology, un NAS de alta gama para el sector doméstico que cuenta con lo último en hardware bajo su carcasa, prometiendo gran potencia y versatilidad al tiempo que sencillez de manejo para todos los públicos. ¿Lo conseguirá? Lo comprobaremos a continuación. Especificaciones y características El DS216+ es un NAS de tamaño medio con unas dimensiones de 165 mm x 108 mm x 233.2 mm y 1,25 kilos de peso (sin discos duros instalados) que se presenta en configuración de dos bahías para alojar sendos discos duros de 2,5 o 3,5 pulgadas y hasta 8 TB cada uno (es decir, la capacidad máxima interna soportada es de 16 TB). El núcleo del sistema lo conforma su procesador de 64 bits Intel Celeron N3050 de doble núcleo y hasta 2,16 GHz que se acompaña de una generosa cantidad de memoria RAM de nada menos que 1 GB DDR3, por encima de lo que suelen incorporar este tipo de dispositivos y que probablemente sea necesaria en el proceso de recodificación de los vídeos, como veremos posteriormente. El NAS es teóricamente capaz de alcanzar una velocidad de lectura máxima de 113 MB/s y de escritura de 109 MB/s a través de su puerto Gigabit Ethernet, aunque como comprobaremos más adelante, estas tasas de transferencia dependen de los discos que instalemos y sobre todo del router y de la red local que tengamos en casa. También tiene dos puertos USB 2.0 (uno frontal), otro USB 3.0 y uno eSATA, permitiéndonos agregar unidades de disco externas hasta un máximo de 108 TB, cantidad más que suficiente para casi cualquier Diógenes digital. En cuanto a los formatos de los discos, internamente soporta Btrfs y EXT4, aunque los externos pueden estar formateados en Btrfs, EXT4, EXT3, FAT, NTFS o HFS+, soportando además el cifrado de los datos por medio de un motor hardware AES-NI. El símbolo "+" del nombre de modelo (DS216+) hace referencia a sus capacidades multimedia, y en especial a la posibilidad de recodificar vídeos en tiempo real para su reproducción en streaming en diferentes dispositivos y pantallas. Es decir, permite pasar vídeos 4K a resoluciones inferiores, como 1080p o 720p en formato H.264, MPEG-2 y VC-1 para que podamos verlas sin problemas en nuestros terminales móviles y televisores no compatibles con resoluciones superiores a Full-HD. Uno de los puntos más importantes de este tipo de dispositivos suele ser el relacionado con el consumo y el nivel de ruido. El Synology DS216+ promete un sistema de ventilación silencioso de 18,2 dB(A) y un consumo máximo de 17,57 vatios a pleno funcionamiento y de 7,52 vatios en reposo, cifras bastante inferiores a las de cualquier ordenador convencional que usásemos como servidor multimedia. Synology DS216+ Características Procesador Intel Celeron N3050 de doble núcleo a 2,16 GHz Memoria RAM 1 GB DDR3 Capacidad interna 2 discos de 2,5 o 3,5 pulgadas y hasta 8TB cada uno (16 TB en total) Puertos de ampliación 2 puertos USB 2.0, otro USB 3.0 y uno eSATA Conexión de red 1 puerto Gigabit Ethernet Velocidades Lectura/escritura 113MBps/109MBps Dimensiones 165 mm x 108 mm x 233,2 mm Peso 1,25 kg Consumo eléctrico 17,57 vatios en funcionamiento >> 7,52 vatios en reposo Precio 332,75 euros Instalación y puesta en marcha Bahías para alojar los discos duros internos con los conectores SATA al fondo Desempaquetamos el NAS y nos encontramos con el equipo, la fuente de alimentación y un cable de red que deberemos conectar al router principal de la casa. También viene en la caja una pequeña hoja de instrucciones para poner en marcha el sistema aunque no manual completo, que me bajé de la web para tener algo más de información a la hora de configurarlo. Lo primero que debemos hacer es instalar los discos duros internos, algo que se realiza de forma rápida y sencilla, ya sean de 2,5 o 3,5 pulgadas (en este último caso no hay que usar tornillos, ya que tiene un sistema de instalación rápida). En mi caso, para probar el DiskStation Synology nos facilitó dos discos de 3,5 pulgadas de marca Western Digital, uno Black de 1 TB y otro Red de 2 TB especialmente pensado para su uso con NAS. También probé un disco Western Digital de 2,5 pulgadas que tenía en casa para ver cómo de sencilla era la instalación. Discos facilitados por Synology ¿Qué sucede si no tenemos discos duros y queremos usar el NAS con discos y memorias externas USB? Pues que en principio no podremos hacerlo, ya que los discos internos son esenciales para continuar con la instalación del producto. Los discos de 2,5 pulgadas hay que atornillarlos al soporte Y es que el siguiente paso es instalar el sistema operativo en el disco, en este caso la versión 5.2 del Disk Station Manager que en el momento del análisis era la última definitiva disponible en la página web de la marca, aunque como veremos posteriormente ya está a punto la 6.0 Beta2. Para ello hay que abrir el navegador web en un ordenador conectado a la misma red local y teclear "find.synology.com". En este momento entramos en un asistente de configuración que nos guiará por el proceso de instalación y puesta en marcha del sistema operativo y de las principales aplicaciones que deseemos utilizar con el NAS. El proceso de instalación tarda unos 10 minutos y se descarga el sistema operativo automáticamente desde Internet Durante el proceso, que tarda unos 10 minutos, el asistente se conectará a Internet para descargar el sistema operativo. Es decir, necesitamos tener una conexión a la Red de redes funcionando, o no podremos empezar a usar el NAS a no ser que nos hayamos descargado previamente el archivo del sistema operativo y lo tengamos almacenado en el disco duro del ordenador, ya que el asistente nos da la opción de buscar dicho archivo en ubicaciones locales. ¿Es esto malo? Pues depende. Si sabemos lo que hay que hacer y queremos instalar el NAS en un lugar sin conexión a Internet, pues nos bajamos previamente el sistema operativo en otro sitio y listo. De lo contrario, podemos vernos frustrados al intentar poner en marcha el dispositivo por primera vez. Tras formatear los discos internos se instala el sistema operativo de forma automática y nos pide un nombre de usuario y contraseña para entrar como administradores al NAS. Es importante recordar estas credenciales, ya que las necesitaremos posteriormente para cambiar la configuración y para acceder a las carpetas compartidas desde la red de Windows y Mac. Por último, se instalarán una serie de paquetes de aplicaciones recomendados para mejorar la gestión de los contenidos de audio, vídeo, el acceso a los archivos, el gestor de descargas y de contenidos multimedia, etc. y ya tenemos el DS216+ listo para empezar a trabajar con él. instalacion-del-software-synology-diskstatio-ds216 Software y funcionalidades El sistema operativo del NAS, el Disk Station Manager (DSM), es quien gobierna todo su funcionamiento y será nuestra interfaz con las múltiples opciones de la máquina permitiéndonos realizar multitud de tareas y de gestionar los discos y sus contenidos. Para entrar a él lo podemos hacer desde la misma pestaña del navegador web de la que veníamos tras instalar todo el sistema, encontrándonos con una vistosa interfaz muy limpia, ordenada y funcional que se asemeja al típico escritorio de Windows en el que podemos mover ventanas con diferentes opciones y accesos directos. Podemos acceder a un extenso panel de control en el que se nos muestran las funciones y configuración principal del NAS permitiéndonos modificar multitud de parámetros y opciones. Tantas que abruman en un primer momento y será necesario un aprendizaje intensivo para llegar a conocer todo de lo que es capaz este dispositivo. El número de opciones y aplicaciones disponibles en el NAS es abrumador. Hay una app para casi cualquier cosa que queramos hacer con él Podemos supervisar la carga de CPU, el uso de la RAM del sistema, el espacio de disco disponible, la configuración de la red local, etc. Por cierto, hay una opción para gestionar una conexión WiFi a través de un adaptador USB, lo cual es un punto a favor del DS216+. También nos encontramos con diferentes accesos directos a las aplicaciones que tengamos instaladas, ya sean las que se copian durante el asistente que acabamos de ejecutar o las que queramos instalar después de entre una larga, larguísima lista. Hay una app para casi todo lo que se nos ocurra hacer con el NAS, desde aplicaciones domésticas y multimedia hasta más profesionales y de gestión de redes. Solo tenemos que elegirlas de entre las disponibles, leer su descripción para saber que hace y si nos interesa darle a instalar. Es, por así decirlo, como una tienda de aplicaciones propias para el NAS que automatiza el proceso de descarga e instalación haciéndolo muy sencillo. Entre estas apps destaca por ejemplo File Station, una especie de explorador de archivos desde el que podemos ver los contenidos almacenados en los discos duros internos y externos, crear carpetas, mover, copiar, borrar, renombrar o compartir archivos por medio de un enlace. Si el archivo en cuestión es de tipo multimedia, podemos también iniciar su visualización desde el propio navegador web, aunque en este caso nos pide que antes hayamos instalado el reproductor VideoLan en el ordenador. También destaca Cloud Station, la aplicación de copias de seguridad del NAS que permite centralizar y automatizar esta tarea en equipos Windows y Mac (tiene soporte nativo para Time Machine) mejorando la seguridad de nuestros ordenadores y manteniendo los archivos respaldados siempre actualizados. Las opciones multimedia también son muy completas, permitiendo crearnos un servidor de contenidos fotográficos, de música y vídeos en pocos pasos y accesibles desde cualquier reproductor del hogar compatible con DLNA o que sea capaz de acceder a carpetas de red. En mi caso lo probé con el Western Digital TV y funcionó a la perfección. Por último, de entre la enorme multitud de aplicaciones y utilidades que hay disponibles para instalar, una de las más interesantes es "Download Station". Como su nombre indica nos encontramos ante un centro de gestión de descargas que nos permite bajar archivos hasta los discos duros del NAS sin tener que depender de un ordenador funcionando en segundo plano. Los amantes de las redes BitTorrent están de enhorabuena, ya que soporta este protocolo así como HTTP, FTP, NZB o eMule. La interfaz es más simple que la que podemos encontrar en las correspondientes aplicaciones de escritorio, pero cumple su función y nos permite tener el DS216+ trabajando toda la noche bajando cosas con un consumo mínimo. DSM 6.0 Beta 2 Como ya hemos señalado en el apartado anterior, la última versión disponible de DSM para la instalación automática desde la web de Synology era la 5.2, aunque la marca nos facilitó un enlace para poder bajar y utilizar la DSM 6.0 Beta 2, que incorpora algunas novedades interesantes. Para ello solo hay que ir a Panel de control>Update & Restore y seleccionar la imagen de la versión 6.0 que hayamos descargado en nuestros ordenadores. La lista de novedades es muy amplia, aunque no todas están disponibles para todos los modelos de NAS, ya que requieren de hardware específico. No obstante, aquí van algunos de los cambios más destacados. Por ejemplo, se han renovado por completo las funcionalidades de MailPlus y MailPlus Server, que nos permiten crear nuestro propio servidor de correo electrónico profesional con multitud de opciones avanzadas enfocadas a usuarios expertos. También se ha introducido la función Snapshot & Replication enfocada a proporcionar protección y recuperación de datos continua y la aplicación Download Station se ha mejorado y rediseñado siendo compatible con más sitios de descarga, actualizaciones de complementos automáticas y soporte para reconocimiento de Captchas. Por último, se ha mejorado la Video Station haciéndola algo más intuitiva, con una interfaz más visual de los contenidos multimedia y permitiendo la recodificación offline de los vídeos hasta terminales móviles. Synology DiskStation DS216+, la opinión de Xataka El DiskStation DS216+ de Synology es un potente NAS multimedia que cuenta con un hardware a la altura capaz de mover sin problemas las peticiones de los usuarios, ya sean estos domésticos o semiprofesionales. La velocidad de transferencia de los archivos dependerá en gran medida de los discos que le conectemos, pero sobre todo de cómo sea nuestra conexión de red local. Aquí, es recomendable señalar que si queremos hacer un uso intensivo del equipo tendremos que utilizar una red Gigabit Ethernet. Si queremos hacer un uso intensivo del equipo y extraer todo su potencial tendremos que utilizar una red y router Gigabit Ethernet De lo contrario las transferencias de grandes archivos (sobre todo películas y vídeos) se harán interminables. Por ejemplo, en mi caso con una red local a 100 Mbps y el router básico de mi operadora, las velocidades de transmisión se veían reducidas a unos 7,5-8,5 MBps, con lo que para pasar varias decenas de gigas me tiré unas cuantas horas. Las transferencias de disco interno a disco interno o de memoria USB externa a disco interno van a la máxima velocidad que ofrezcan los dispositivos. Por ejemplo, con discos USB 2.0 logré unas tasa máximas de 35 Mbps y con una memoria USB 3.0 de 8 GB copié los datos a unos 45 Mbps, que es la cifra máxima obtenida en Windows. La gran cantidad de aplicaciones disponibles es un gran punto a favor del NAS. Como ya he comentado antes, hay una app para casi todo lo que quieras hacer, ya sean tareas simples o avanzadas, lo cual nos da muchas posibilidades, aunque también aumenta la complejidad para los usuarios menos experimentados que pueden encontrarse abrumados por tantas opciones. ¿Estamos ante un equipo perfecto? Pues no. Varios son los inconvenientes principales de este dispositivo. Para empezar, no me ha gustado nada que haya que instalar el sistema operativo por nuestra cuenta. Cuando te gastas 332,75 euros en un aparato enfocado a usuarios domésticos lo primero que esperas es que, tras enchufarlo, comience a estar listo al momento o como mucho te pida un par de datos, nombre de usuario, etc. El proceso de instalación es sencillo y está muy automatizado, pero en mi opinión si viniera ya configurado de serie sería un valor añadido que le otorgaría puntuación extra, ya que no dependeríamos de una conexión a Internet para empezar a usar el NAS. Después, he de señalar un par de problemas que me he encontrado. Por ejemplo, si después de hacer toda la instalación nos da por extraer el disco duro, el sistema da un error y tenemos que volver a iniciar el proceso, algo que me resultó bastante molesto. Además, también me sucedió algo curioso. Tras estar utilizándolo unas horas lo apagué y lo desenchufé de la electricidad. Inmediatamente el router de mi operadora (un Comtrend CT-5365) se volvió loco impidiéndome acceder a la red local e incluso a su menú interno de configuración. Hasta que no quité el cable Ethernet del NAS y reinicié del router no volvió éste a la normalidad. Entonces, ¿es el DiskStation DS216+ para mí? Si lo que buscas es un NAS potente desde el que gestionar tus contenidos multimedia y hacer copias de seguridad de tus archivos, que además estén disponibles desde cualquier lugar del mundo, es una buena aunque cara opción, ya que a los 332,75 euros tendrás que sumar el importe de los discos duros que desees instalar. El DiskStation DS216+ ha sido cedido para la prueba por Synology. Puedes consultar nuestra política de relaciones con empresas Más información | Synology También te recomendamos Synology DiskStation Manager 5.0 ya disponible, por ahora en fase beta Synology DSM 4.3 ya disponible Cómo vender más de 500 millones de placas base: la historia de Asus - La noticia Synology DiskStation DS216+, análisis: potente y versátil NAS multimedia fue publicada originalmente en Xataka por Paco Rodríguez .

Leer más »

¿Qué es delito y qué no en Internet? La policía nos lo explica

650_1200

Brand Article - Contenido de nuestro espacio de marca Amenazas, falsificación, delitos sexuales, fraude informático… El Ministerio del Interior, recopilando los datos registrados por todos los Cuerpos de Policía relativos a la cibercriminalidad, elabora cada año un estudio sobre esta materia. Sin embargo, un dato curioso que incluso sorprende a la propia Policía es que se producen pocas denuncias por Internet. ¿Por qué? “La gente no conoce los límites en Internet, no sabe hasta dónde pueden llegar los usuarios y asimilamos comportamientos de otros usuarios como normales cuando, en realidad, son delictivos”, afirma Silvia Barrera, Inspectora de la Unidad de Investigación Tecnológica de la Policía Nacional. ¿Cómo distinguir qué es delito en Internet? Esta inspectora nos responde en el vídeo. Los ciberdelitos crecen y el fraude informático más aún Tal y como constata la Policía, a veces, en ciertas operaciones, los detenidos se sorprenden de ser arrestados y aseguran que, pese a haber vertido amenazas contra otras personas, sus “intenciones no eran cortarle la cabeza. El problema es que, quien recibe esos mensajes, no lo sabe”, afirma Silvia Barrera. Pero, más allá de eso, es cierto que hay otros usuarios que, conscientemente, utilizan Internet y las nuevas tecnologías para cometer determinados delitos. Según el informe de 2014 del Ministerio del Interior, el fraude informático no es solo la categoría delictiva que ha registrado mayor incidencia durante 2014 (un 65,7% del total de hechos conocidos), sino que es de las que más crece conforme pasan los años. Las amenazas y las coacciones son el segundo delito más conocido en Internet. Los demás delitos están a cierta distancia de estos dos. Por orden de importancia, tendríamos los delitos contra el honor, la falsificación informática, el acceso e interceptación ilícita y los delitos sexuales. Según los datos de este informe, el 35,9% de los hechos conocidos en 2014 fueron esclarecidos, aunque la cifra de detenidos e imputados en este ámbito es menor, manteniéndose de forma casi constante a lo largo de los últimos años. El estudio también pone de relieve que, en términos generales, los hombres sufren más los delitos relacionados con Internet, especialmente en delitos contra la salud pública o la propiedad intelectual. Sin embargo, en los relacionados con delitos sexuales o contra el honor, las mujeres suelen ser las víctimas en la mayoría de los casos. Por su parte, según los informes facilitados por el Ministerio de Justicia sobre los casos de ciberdelincuencia que tuvieron lugar en España en 2014, la pornografía infantil y la corrupción de menores y/o personas discapacitadas ocuparon el segundo lugar en la lista de los ciberdelitos más frecuentes, con un total de 581 casos. A la cabeza se situaron las estafas online. Los casos de delitos informáticos aumentaron un 71,21% con respecto a 2013. Fuente: Ministerio de Justicia. Ahora el acoso electrónico ya es delito Siempre se dice que las leyes van con retraso respecto a la sociedad. En este sentido, cabe señalar que el año pasado se produjo una reforma de la Ley Orgánica 10/1995 del Código Penal, por la que se regulan nuevos tipos penales en este ámbito. "Es necesario que se incorporen unos patrones de ciberseguridad obligatorios, tomando ciertas precauciones a la hora de navegar por Internet o mandar un correo. Esto debería ser casi una materia de educación obligatoria”, Silvia Barrera Los cambios sufridos tratan de dar una respuesta legal, desde la perspectiva del derecho penal, a la delincuencia informática. En este sentido, los delitos contra los sistemas de información introducidos y modificados por la Ley Orgánica 1/2015 son el delito de acoso electrónico, los delitos de descubrimiento y revelación de secretos, de daños y de interferencia ilegal en sistemas de información o datos, contra la propiedad intelectual, así como los abusos con fines sexuales cometidos a través de Internet u otros medios de telecomunicación a menores. Igualmente, una Orden Ministerial regula la definición de ciberataque, por el que se entiende una “acción producida en el ciberespacio que compromete la disponibilidad, integridad y confidencialidad de la información mediante el acceso no autorizado, la modificación, degradación o destrucción de los sistemas de información y telecomunicaciones o las infraestructuras que los soportan”. Las cifras que maneja el Ministerio del Interior aseguran que la mayoría de los incidentes lo ha sufrido la comunidad denominada “ciudadanos y empresas”, con un 82,3% del total. Pero, ¿qué más es delito en Internet? Con la socialización de Internet, lo cierto es que cada vez se producen más hechos delictivos relacionados con la Red. El campo de acción se amplía a todas aquellas conductas delictivas realizadas a través de los sistemas de información o contra estos. Es lo que se conoce popularmente como cibercrimen. Fuente: Fiscalía General del Estado. Sin embargo, este tipo de amenazas cibernéticas están en constante evolución y cambio. Además de las amenazas planteadas por la delincuencia informática en sí (seguridad lógica, virus, sustracción de datos, hacking, descubrimiento y revelación de secretos, suplantación de personalidad o sustracción de cuentas de correo electrónico), también se consideran delitos cibernéticos aquellos que, aunque existían antes de Internet, ahora tienen en ella un campo de acción, como delincuencia financiera (incluyendo uso fraudulento de tarjetas de crédito en Internet, fraudes en subastas y comercio electrónico, estafas en la red), delitos contra los niños, el fraude, delitos contra la propiedad intelectual de programas de ordenador, música y productos cinematográficos o contra la propiedad industrial, o las amenazas, extorsiones, calumnias o injurias. De hecho, por ejemplo, bajo el epígrafe de pornografía infantil también se entienden cualquier situación que ponga en peligro al menor en el uso de las nuevas tecnologías (Ciber-bullying, Grooming o Sexting). La delgada línea que separa lo que es delito y lo que no Algunos delitos son claros y evidentes: si alguien te roba las credenciales de la tarjeta de crédito, todos tenemos claro que es un robo y puede ser penado. Pero, ¿qué pasa con un bulo o un piropo? ¿Cuándo deja de ser una broma para ser acoso, por ejemplo? El Código Penal ha sido recientemente modificado para dar respuesta a los delitos informáticos. También se ha regulado qué se entiende por ciberataque “Un bulo no es delito, pero imaginemos que un día, en la final de un evento deportivo o un concierto, dicen que hay una amenaza terrorista, lo que puede generar caos y dar lugar a consecuencias mayores. Deja de ser un bulo para ser un delito contra el orden público”, señala Silvia Barrera. Por eso, no debemos ni creerlos ni propagarlos con un “por si acaso es verdad”. Estos mensajes que pueden parecer inocentes, pueden acabar siendo un verdadero peligro. Recordemos, por ejemplo, lo que ha sucedido en varias ocasiones en la Semana Santa de Sevilla. Algo parecido pasa con los piropos. Aunque existe una delgada línea que separa lo que es una conducta meramente reprobable de otra constitutiva de delito, el sentido común debe hacernos reflexionar sobre cuándo hay cosas que no tienen gracia y cuando alguien se puede estar pasando de la raya. En este sentido, la Policía Silvia Barrera, explica que los personajes famosos están acostumbrados a la adulación, pero que también se han tenido que enfrentar al ciberacoso. “La diferencia entre un troll y una crítica y un acoso obsesivo es muy clara, y el que la sufre la reconoce inmediatamente”, declara Lara Siscar, periodista de TVE que sufrió un caso de acoso durante dos años pero que tardó casi uno en denuciarlo. “Recomiendo que no se espere. Yo esperé más de un año, porque con esto de que es Twitter, una red social, ni tú mismo le das la importancia que realmente tiene. Es un delito y hay que denunciarlo a la Policía para que investigue y se pueda detener al sujeto que se tiene que hacer responsable”, concluye la presentadora de los Servicios Informativos de TVE. En cualquier caso, los cuerpos y fuerzas de seguridad siempre recomiendan, ante la duda, interponer una denuncia. Por ejemplo, la Línea de Denuncia anónima de Protégeles recibe una media de 3.000 denuncias al mes, según sus propios datos, que son tratadas por expertos en seguridad y protección del menor. Las informaciones recibidas que permiten realmente el inicio de acciones legales, o que ponen en conocimiento la existencia de contenidos delictivos en el país de origen, son trasladadas directamente a unidades de Policía de todo el mundo o a Interpol, así como al INHOPE (International Association of Internet Hotlines) dependiente de la Comisión Europea. El INHOPE engloba a las Líneas de Denuncia de casi todo el mundo, y Protégeles es la organización española miembro permanente. Entre 2001 y 2012 Protégeles ha recibido más de 200.000 denuncias o informaciones, y ha realizado más de 15.000 de notificaciones sobre páginas y archivos de todo el mundo a las unidades policiales de distintos países, y de forma sistemática a la Brigada de Investigación Tecnológica (BIT) de la Policía española, y a la Guardia Civil. ¿Por qué vas a hacer algo online que no harías en tu vida offline? El fraude informático es la categoría delictiva que ha registrado mayor incidencia durante 2014, seguido de las amenazas y las coacciones Si el consejo es válido para la vida corriente, lo es también para nuestra actividad online o relacionada con las nuevas tecnologías. Por ejemplo: espiar los mensajes de móvil, correo electrónico o redes sociales de cualquier persona es delito en cuanto no estamos respetando su derecho a la intimidad y a la privacidad de las comunicaciones. Si nadie te abre las cartas que aún te manda el cartero a casa, ¿por qué sí va a poder hacerlo con una carta electrónica? Lo mismo ocurre con la captación y difusión de imágenes, especialmente de contenido sexual y/o que afecten a menores de edad. El derecho a la propia imagen y a la intimidad no deben ser sobrepasados en ningún momento, especialmente en el caso de los niños, que precisamente por ser menores gozan de una protección especial. La ciberseguridad empieza por nosotros Internet y la tecnología han penetrado en casi todos los aspectos de nuestra vida cotidiana, lo que conlleva infinidad de beneficios y oportunidades, también para los amigos de lo ajeno. Por eso, es fundamental seguir una serie de consejos y pautas. “Lo primero es creerse los mensajes que se lanzan desde las instituciones de seguridad como la Policía. Es necesario que se incorporen unos patrones de ciberseguridad obligatorios, tomando ciertas precauciones a la hora de navegar por Internet o mandar un correo. Esto debería ser casi una materia de educación obligatoria”, explica Silvia Barrera, quien vuelve a insistir en que si recibimos un mensaje de un remitente desconocido o es algo que ”no esperas recibir aun siendo de un contacto”, no debemos abrirlo ni leerlo. "La diferencia entre un troll y una crítica y un acoso obsesivo es muy clara, y el que la sufre la reconoce inmediatamente" Lara Siscar Pero, además, ”hay que poner de nuestra parte, sobre todo en redes sociales, y tener mucho cuidado con lo que se publica. El 80% de lo que nos encontramos en redes sociales son constitutivas de delito: acoso, amenazas…”. Por eso, son muchos y variados los consejos que desde diferentes organizaciones se nos ofrecen para aumentar nuestra seguridad: mantener los sistemas operativos actualizados, utilizar programas de seguridad (como antivirus), no repetir el uso de contraseñas, que éstas sean fuertes (mezclando minúsculas, mayúsculas, números y signos de puntuación) y cambiarlas con cierta frecuencia, sospechar de mensajes extraños o de procedencia dudosa, eliminar cualquier sospecha de correo no deseado de inmediato y no abrir ningún archivo adjunto, recelar de mensajes que contiene amenazas o pide información personal, cifrar la red inalámbrica, evitar los pop ups son algunas de estas sugerencias. Eso sí, la Policía aclara que no hacen una monitorización masiva de perfiles de redes sociales. “Actuamos cuando se puede estar cometiendo un delito, cuando vemos que se está compartiendo una información que pudiera tener contenido sensible o delictivo o cuando tenemos un objetivo específico que tenemos que identificar y seguir, pero nunca hacemos monitores y acciones masivas ni identificaciones extrañas”. … y deja en casa el troll que llevas dentro Volvemos al epígrafe del sentido común: lo que no te gusta que te hagan a ti no se lo hagas a los demás. No intentes escudarte en un falso yo o en una falsa apariencia de invisibilidad en Internet. No te escondas, incluso de malas formas, a cualquiera que asome en un foro o en unos comentarios en cualquier página de Internet. Cada vez son más los casos que conocemos de personas detenidas por acosar a través de redes sociales o por hacerse pasar por otra persona para determinadas venganzas. Casos en los que la Policía siempre acaba deteniendo a los delincuentes. Porque, como decimos, aunque te parezca que Internet te permite actuar impunemente y bajo el anonimato, lo cierto es que esto no es real pues todo lo que hacemos deja una huella digital. [[Disclaimer: Contenido ofrecido por Vodafone One]] También te recomendamos Este robot-smartphone japonés es el primer paso para acostumbrarnos a los androides en casa Cómo vender más de 500 millones de placas base: la historia de Asus Árboles que brillan para sustituir a las farolas. ¿Y si el mundo sostenible pasa por la biotecnología? - La noticia ¿Qué es delito y qué no en Internet? La policía nos lo explica fue publicada originalmente en Xataka por Vodafone One .

Leer más »

¿Qué pasaría si no usaras el correo electrónico en una semana? La respuesta, sorprendente

650_1200

El correo electrónico es para muchos una pequeña maldición en el trabajo, donde estar al tanto de los mensajes que llegan supone constantes interrupciones. La gestión de este medio de comunicación es una de las tareas que más tiempo le roban a profesionales y usuarios y en general, y ante su popularidad uno se pregunta qué pasaría si no se usara el correo electrónico durante la jornada laboral. Un grupo de investigadores de la Universidad de Colorado en Boulder quiso precisamente comprobarlo. Trece de los empleados de ese organismo decidieron abandonar el correo electrónico durante toda una semana para evaluar los efectos en su jornada laboral y, atención, en su salud. Usar bien el correo electrónico es casi un arte Este no es el primero de estos estudios que trata de evaluar el efecto del correo electrónico en la jornada de trabajo. Hace poco un estudio del Future Work Center -organismo que realiza evaluaciones psicológicas en entornos de trabajo- confirmaba datos que ya se habían revelado. Por ejemplo, que las notificaciones que llegan constantemente de los clientes de correo usados por los empleados en cualquier empresa son una "fuente tóxica de estrés", y que una de las medidas claras que deberían seguir esos usuarios es la de desactivar la aplicación de correo (o sus notificaciones) a pesar de "traicionar" a esa cultura que hemos creado en la que nos sentimos mal por no parecer que siempre estamos disponibles para contestar. De hecho la relevancia del correo electrónico en el trabajo sigue siendo asombrosa, y por ejemplo una encuesta relativamente reciente revelaba como los empleados americanos invierten nada menos que 6,3 horas al día en gestionar su correo: 3,2 horas eran para correo del trabajo y 3,1 para mensajes personales. En aquel estudio se revelaba cómo incluso esa generación de "millenials" es especialmente "adicta" a este tipo de tarea. Otros experimentos en este ámbito han demostrado que prestar esa atención constante al correo electrónico "incrementa el estrés sin incrementar la eficiencia. En lo que respecta a chequear el correo electrónico, menos podría llegar a ser más". Menos estrés y menos distracciones Todos los participantes del experimento se colocaron sistemas que medían su frecuencia cardíaca a lo largo de todo el día y también se situaron sensores que recolectaban diversa información en las oficinas. Por ejemplo, el tiempo que invertían en una tarea antes de verse interrumpidos, cuántas veces se movían de un lado a otro, o el tiempo que mantenían su atención en una sola ventana en su sesión de trabajo en el ordenador o la frecuencia con la que cambiaban de tarea. El resultado de abandonar el correo electrónico fue interesante: la mayoría de los empleados -sobre todo los directores- se levantaban con más frecuencia de sus sillas para resolver cuestiones cara a cara -ni siquiera por teléfono- con el resto del equipo en lugar de usar el correo electrónico. También se centraban mejor en las tareas realizadas, algo que era previsible ya que prescindían de una de las fuentes de interrupciones común en la jornada laboral: la llegada de un mensaje de correo electrónico hace que uno cambie de contexto rápidamente y casi "se sienta obligado" a contestarlo para no parecer que no está trabajando o que no tiene "espíritu de equipo". Lo más curioso fue que incluso había una reducción en el nivel de estrés, algo que confundió a los investigadores ya que podría haber otros factores que afectarían a esa reducción. Sin embargo el impacto de dejar el correo electrónico de lado tuvo un efecto patente, y en las entrevistas con los participantes todos dejaron claro que estaban más contentos y menos ansiosos al no tener que utilizarlo constantemente. Trabajar sin correo electrónico (durante un tiempo) es posible Aunque es evidente que el correo electrónico es vital para ciertos tipos de comunicación, los implicados en el experimento no notaron un perjuicio a su actividad por enterarse de ciertos temas en los cara a cara con otros miembros del equipo o hacerlo más tarde. Una vez terminado el periodo sin correo electrónico, también se observó la forma en la que los implicados se enfrentaban a un buzón lleno de mensajes tras esa inactividad. Curiosamente esa interacción sin correo electrónico hizo que la gestión de esos mensajes fuera rápida y eficiente ya que podían contestar a muchos mensajes en lote y también tener clara la respuesta en otros tantos. Entre las conclusiones más relevantes estaba la que aportaba uno de los participantes, que indicaba que algunos correos pueden no ser tan urgentes como el que los envía trata de hacer ver. Un experimento interesnate que puede que nos ayude a entender mejor la forma en la que debemos trabajar con un medio de comunicación que sigue siendo vital para múltiples escenarios. En Xataka | Tus emails son seguros gracias a un desarrollador que estaba quedándose sin nada También te recomendamos Las tecnologías con las que Google simulará ser tú escribiendo correos Cómo vender más de 500 millones de placas base: la historia de Asus El Departamento de Justicia de USA considera que su gobierno puede acceder a casi cualquier mail - La noticia ¿Qué pasaría si no usaras el correo electrónico en una semana? La respuesta, sorprendente fue publicada originalmente en Xataka por Javier Pastor .

Leer más »

El portátil para jugones Razer Blade se actualiza con más potencia, menos peso y un precio más bajo

650_1200

El Razer Blade de 14 pulgadas se actualiza poniendo las especificaciones básicas en un nuevo nivel: el modelo 2016 es más ligero, obviamente más potente, y encima le han puesto un precio más asequible que el que tenía el modelo que sustituye. El portátil para jugones ha sido presentado en el mejor sitio donde podían hacerlo, la Games Developer Conference 2016. Podemos decir que es una evolución interna muy buena, conservando los detalles de diseño que lo hicieron característico - acabado en mate negro -, algo que nos parece perfecto. Recordar que el chasis es de aluminio. Razer Blade se reivindica como uno de los portátiles potentes más delgados y ligeros del mercadoPara un portátil con buen hardware y 14 pulgadas su peso está bastante conseguido, habiéndose rebajado hasta los 1,92 kilos (el de 2015 se iba a los 2,03 kilos). Las dimensiones se mantienen inalteradas: 345 x 235 x 17,8 milímetros. La dieta no implica que pierda poderes, ahí sigue estando presente la gráfica NVIDIA GTX 970M, que dobla su memoria RAM para llegar hasta 6GB. El procesador principal también se pone al día con un Intel Core i7-6700HQ (cuatro núcleos 2.6-3.5GHz, 14nm). Compatible con el Razer Core, ahora cuenta con un colorido teclado ChromaLa memoria RAM base pasa a ser de 16GB en formato DDR4 y la memoria para almacenamiento parte ahora de 256GB en formato SSD (PCIe M.2). Otra de las novedades más evidentes es el puerto USB Type-C que enmascara un conector Thunderbolt 3. No nos olvidamos de la pantalla, que en 14 pulgadas mete 3.200 x 1.800 píxeles. Esa resolución ya estaba disponible en la configuración alta del modelo 2015, ahora se convierte en la opción básica. El panel es táctil y para el que tenga curiosidad, comentar que lo hace Sharp. Como el pequeño Blade Stealth es posible utilizar el módulo externo con tarjetas gráficas - se llama Razer Core -. De ahí la necesidad del puerto con Thunderbolt 3. Seguro que a muchos gustará ver el colorido teclado Chroma, también heredado del Stealth: cada tecla tiene una retroiluminación RGB. ¿Un precio más bajo? Hay dos configuraciones, una con 256GB que cuesta 1.999 dólares, otra que dobla la memoria y tiene un precio de 2.200 dólares. Se pone a la venta el 16 de marzo - reserva -, llegando a las manos de clientes en abril. El precio es alto, más o menos justificable por calidades y componentes, pero sí tenemos que agradecer la bajada que hay con respecto al modelo 2015, que partía de 2.400 dólares. También te recomendamos Thunderbolt 3 gana terreno: ¿a la tercera va la vencida? Lenovo une fuerzas con Razer para conquistar el mercado gamer, este será su primer PC Cómo vender más de 500 millones de placas base: la historia de Asus - La noticia El portátil para jugones Razer Blade se actualiza con más potencia, menos peso y un precio más bajo fue publicada originalmente en Xataka por Kote Puerto .

Leer más »

Flipped Classroom: mucho más que llevar la clase a casa, Manuel J. Fernández, profesores innovadores

650_1200

Una de las estrategias metodológicas en él aula que más está extendiéndose en el ámbito educativo es la llamada clase invertida o Flipped Classroom. De forma directa podríamos hablar de cambiar los roles de alumno y profesor en el aula, de pasar de las clases magistrales a vídeos ... pero no deberíamos quedarnos en la superficie de esta metodología sino aprovechar la buena recepción que está teniendo la Flipped Classroom para buscar formas de aprendizaje y enseñanza donde la motivación sea uno de los ejes principales. Así lo piensa Manuel Jesús Fernández Naranjo, docente de Ciencias Sociales y uno de los profesores que más dedicación tiene por la clase invertida, la cual aplica desde hace 3 años. Con él hemos hablado para conocer cómo plantear un aula y una enseñanza donde "flippear" o ponerlo todo del revés. Pasando de la clase tradicional: una de las nuevas metodologías educativas ABP (aprendizaje basado en proyectos) y FC (Flipped Classroom) están a la cabeza de las principales metodologías que docentes de todo el mundo están aplicando en sus aulas desde hace unos años. De ellas, la que mejor aprovecha la tecnología es la clase invertida, donde la revolución en las comunicaciones y facilidad para crear y consumir contenidos es una base fundamental. En una clase invertida, de forma elemental, las explicaciones generales, lecturas y clases magistrales de los profesores se trasladan a otro momento del proceso educativo, generalmente fuera de clase. Bergmann y Sams, sus mentores, lo consiguieron por medio de vídeos de sus propias clases. Con Flipped Classroom el principal beneficio es que el alumno pasa a ser un elemento activo de su educación y los roles en el proceso cambian Observando los resultados de sus alumnos comprendieron que el rendimiento era mayor principalmente porque en clase podían dedicar más tiempo a poner en práctica lo aprendido y trabajar en proyectos para los que no había tiempo con un formato de clase tradicional. Pero para "sus creadores", una clase invertida es mucho más. Flipped Classroom proporciona un entorno más adecuado que el clásico para que el alumno pase a ser un elemento activo de su educación, y protagonice su propio aprendizaje, además de una interacción profesor-alumno mucho más directa y donde los roles no son los clásicos. Otras ventajas de invertir la clase es que ésta se vuelve más activa en las metodologías usadas, facilita la atención a la diversidad y saca mucho más provecho al uso de la tecnología en el aula y el proceso educativo del alumno. Dando la vuelta a clase de 2º de Bachillerato 18 años de directivo, 12 de ellos como director y ahora invirtiendo la clase. Manuel Jesús Fernández Naranjo es licenciado en Geografía e Historia y docente de Ciencias Sociales desde 1987. El alumnado no está acostumbrado a invertir la clase. No tienen autonomía (no les hemos enseñado a tenerla) para aprender por sí mismos, son pasivos y les cuesta mucho trabajo cambiar de rol Actualmente es profesor en el IES Virgen del Castillo de Lebrija, en Sevilla. Allí hace ya siete años que empezó a preocuparse por buscar alternativas adecuadas para un aprendizaje del alumnado más auténtico y más adaptado a sus necesidades y a la sociedad actual. En su centro ha iniciado una pequeña revolución dejando atrás la enseñanza tradicional para incluir el trabajo basado en proyectos durante la etapa de ESO. Durante el curso 2013/2014 además implementó la metodología de Flipped Classroom en todo el curso de segundo de bachillerato. "Este periodo me sirvió para ir entendiendo las importantes implicaciones que tiene el flipped classroom, puesto que no sólo se trata de utilizar vídeos y cambiar el orden y el lugar del proceso de aprendizaje sino, sobre todo, dar autonomía al alumnado, que se va empoderando de su propio aprendizaje, personalizar este proceso y aprovechar al máximo el tiempo utilizado en el aula en favor de las necesidades del alumnado" Tras ese curso, los alumnos acabaron convencidos de la clase invertida, lo mismo que Manuel Jesús. Youtube y Twitter: nuevas herramientas en clase Buscar información, elaborar materiales propios y participar en redes sociales. Con esa base Manuel Jesús articula sus clases, para las que recurre principalmente a herramientas de Google (mapas, documentos, presentaciones compartidas o formularios) y otras como Dipity, con la que sus alumnos realizan líneas del tiempo. "Utilizamos aplicaciones móviles para grabar audios para podcasts y para crear vídeos. Tenemos también un canal de Youtube donde se encuentran todos los vídeos de lo que hemos llamado La Previa como otros vídeos que utilizamos o que el alumnado crea" La base del proyecto es un Site de Google en la que los alumnos y resto de comunidad educativa encuentra las referencias para todas las actividades. Entre ellas hay un fuerte componente de uso de las redes sociales, incluso desde los propios dispositivos de los alumnos. "El uso de la tecnología se convierte en algo frecuente y natural para los alumnos, que trabajan con ordenadores fijos del aula de informática, ordenadores portátiles del centro así como sus propios tablets y móviles" Una de las experiencias que Manuel Jesús usa con sus alumnos tiene su propio hashtag: #temaxtuit . Con él los alumnos tiene como labor resumir algunos temas para poder estudiarlos a base de tuits. "La diferencia básica de la experiencia con respecto a otras asignaturas del curso o de otros años es que con esta estrategia hacen de manera natural en el aula lo que hacen fuera de ella, pueden utilizar los móviles para buscar información, tuitear y elaborar materiales (audios o vídeos, básicamente) y trabajar a su ritmo. En definitiva, también acerca el aprendizaje formal al informal" La implementación de la clase invertida sorprende y a la vez motiva tanto a alumnos como a padres y otros profesores. "Para los alumnos es una experiencia totalmente novedosa, no siguen metodologías activas en las demás materias y algunos no las han conocido en toda su vida escolar. Por eso, aunque les cuesta un poco adaptarse, la acogen de muy buena gana porque ven que pueden trabajar y, sobre todo, aprender de otra manera" En cuanto a las familias, Manuel Jesús los reúne a principio de curso para explicarles la forma de trabajar, sus ventajas, obligaciones ... Los padres por lo general están conformes e incluso animan a que otros docentes se sumen a invertir la clase. "Los principales inconvenientes de la clase invertida - son pocos - tienen que ver con la conectividad del centro, el uso de equipos anticuados y el tiempo necesario para darse cuenta de sus ventajas" Por eso precisamente Manuel Jesús trabaja en un curso como bachillerato, donde los alumnos pueden ser más autónomos y estos inconvenientes están minimizados respecto a otros niveles educativos. Aunque la tecnología ayuda a muchas de las fases de una clase invertida, especialmente en crear, compartir y visualizar contenidos, Manuel Jesús incide mucho en que en clase también realizan muchas actividades que no necesitan la tecnología, como debates, explicaciones del alumnado o análisis y comentarios de textos. Más trabajo en clase en un cambio de enfoque educativo Quien piense que invertir una clase es menos trabajo para profesor o alumno no puede estar más equivocado. Los alumnos manifiestan en cuestionarios y el día a día las ventajas del uso de metodologías diferentes como la clase invertida. "Aprender de otra manera, ser más protagonistas, aprender a desenvolverse mejor en el mundo digital, que se valore su trabajo durante la evaluación y no sólo el examen final, el aprender a su ritmo, el variar tanto de tipos de actividades, son motivos más que suficientes para considerar lo positivo del flipped classroom" Ese trabajo extra lo asumen los alumnos de buena gana. "Aunque reconocen que trabajan más en clase y hacen más actividades que en otras materias, saben que ese trabajo les cuenta y les sirve para aprender e incluso para sacar buenas notas en una materia tradicionalmente muy árida y pesada, sometida al implacable mazo de la explicación continua y para ellos monótona" Con la metodología de clase invertida el alumnado pasa a convertirse en protagonista del proceso y el profesor en guía de aprendizaje Ese cambio de enfoque educativo no es solo para el alumno. Hay un cambio de rol que afecta al profesor. "No es sólo cambiar el orden de las tareas tradicionales sino que implica aprender de otra manera y, por lo tanto, enseñar de también de manera diferente" Y en ese proceso y cambios de roles, el alumnado pasa a convertirse en protagonista del proceso y el profesor en guía de aprendizaje. "Además, al permitir una mayor personalización del proceso favorece que el alumnado con alguna dificultad de aprendizaje pueda ir siguiendo el proceso a su ritmo y, también, al insertar el aprendizaje informal y móvil en el aprendizaje formal del aula le hace ver al alumnado que lo que se hace en la Escuela no es algo aislado y muy distinto del mundo que vive fuera de ella, con lo que contribuye a disminuir el aislamiento tecnológico de la institución escolar" También te recomendamos Cómo vender más de 500 millones de placas base: la historia de Asus Del aula al mundial de Qatar con un robot creado en clase: Alberto Bernabéu, profesores innovadores Kinect como profesor de educación física: Vicent Gadea, profesores innovadores - La noticia Flipped Classroom: mucho más que llevar la clase a casa, Manuel J. Fernández, profesores innovadores fue publicada originalmente en Xataka por Javier Penalva .

Leer más »

ExoMars, así es la misión a Marte más ambiciosa de Europa

650_1200

Entre este año y 2018, la ESA y Roscosmos, la agencia espacial rusa, lanzarán a Marte dos misiones muy ambiciosas tecnológicamente que, además, persiguen objetivos científicos igualmente ambiciosos. ExoMars es un programa que busca detectar pruebas de la presencia pasada de vida en el planeta rojo (y de la posibilidad de que todavía pueda haberla en su subsuelo) y, al mismo tiempo, demostrar las tecnologías necesarias para enviar, primero, una misión de retorno de muestras a Marte y, después, una posible misión tripulada. Para ello, el programa está dividido en dos misiones. La primera partía ayer al planeta rojo y está formada por un orbitador (Trace Gas Orbiter, o TGO) y un módulo de descenso (Schiaparelli) que tiene que probar nuevas tecnologías para la reentrada en la atmósfera marciana y para el aterrizaje. La segunda misión se lanzará dentro de dos años y la constituirá un rover que taladrará su superficie en busca de esas elusivas pruebas de que Marte puede albergar vida. La novedad de ExoMars Hasta 2018, sin embargo, aún queda tiempo, así que los científicos están más pendientes de la primera de estas dos misiones, la de TGO. Para comprender por qué es distinta de las sondas que se han enviado recientemente a Marte, Silvia Bayón, ingeniera de sistemas del satélite, explicó en un evento en ESAC (Centro Europeo de Astronomía Espacial) que, con una masa en el lanzamiento de 3.700 kg., es la nave más grande que la ESA ha mandado a Marte y que, además, "es la primera vez que una misión marciana tiene esta arquitectura desde los 70, con las Viking". Bayón se refiere a un orbitador de gran tamaño (Mars Express, lanzada en 2003, y con el módulo Beagle 2, pesaba 1.000 kg.) que debe desplegar sobre la superficie un módulo de descenso. Por esta razón, la ingeniera apunta que "esto implica que el módulo de entrada se tiene que separar tres días antes. Doce horas después de esta separación, TGO tiene que hacer una maniobra para no seguir una trayectoria de colisión con Marte y, tres días después, hace la maniobra de captura de Marte, que dura dos horas y consume la mitad del combustible". ExoMars 2016 seguirá una trayectoria directa al planeta rojo, que durará unos siete meses, y una vez que se haya separado del módulo de descenso, tardará un año en situarse en su órbita de operaciones científicas. Para ello, utilizará una táctica que ninguna misión de la ESA ha empleado hasta ahora, el aerofrenado, que se sirve del rozamiento con las capas superiores de la atmósfera marciana para colocar la sonda en la posición, y velocidad, en la que se mantendrá durante el siguiente año marciano (687 días terrestres). ExoMars 2016 aúna la demostración de tecnología con los objetivos científicos del estudio del metano en la atmósfera de Marte Cuando TGO realice todas estas maniobras, Schiaparelli ya habrá completado su misión de demostración de tecnología. El módulo probará, en octubre, el rendimiento de su escudo térmico (un poco más grueso de lo habitual porque hay una alta probabilidad de que aterrice durante una tormenta de arena), el paracaídas supersónico de 12 metros de diámetro con el que frenará su caída y los retrocohetes que deben asegurar su aterrizaje. Aunque lleva instrumentos científicos para estudiar la transparencia de la atmósfera marciana y los campos eléctricos cerca de su superficie, Schiaparelli no tiene la ciencia dentro de sus objetivos. De hecho, una vez toque tierra, no podrá seguir funcionando mucho más, entre dos y ocho soles (días marcianos), hasta que se agoten sus baterías. Pero su faceta de demostración tecnológica es importante para el desarrollo de esa largamente acariciada misión de retorno de muestras, que se considera un paso previo muy importante al envío de astronautas al planeta rojo. ¿Por qué se estudia el metano de Marte? El lado científico de ExoMars 2016 lo aporta el orbitador TGO. Su principal cometido es estudiar la débil atmósfera marciana y, sobre todo, la presencia de metano en ella. "En los últimos 10 años se han detectado trazas de metano, del que en la Tierra hay dos orígenes: procesos biológicos y procesos geológicos", explica Leo Metcalfe, responsable de operaciones científicas de la misión. Añade que "el metano no sobrevive mucho tiempo en la atmósfera de Marte, es destruido por la radiación ultravioleta, así que si se encuentra metano en su atmósfera, tiene que haber fuentes. Si son geológicas, volcánicas, son también importantes porque, en la Tierra, la combinación de actividad volcánica y agua líquida es fundamental para la vida". ¿Pero hay todavía agua líquida en el planeta rojo? En palabras de Metcalfe: "En los últimos diez años se han acumulado bastantes evidencias de que se puede encontrar todavía en la superficie de Marte agua líquida. Debería ser altamente salina para no congelarse. También hay cavernas, de origen volcánico, de las que no se sabe lo que hay debajo. Es posible que las condiciones bajo la superficie sean más compatibles con la existencia de vida". Esas fuentes emisoras del metano en la atmósfera marciana son uno de los objetivos más relevantes de las misiones de exploración que se envían a Marte. Pueden apuntar a la posibilidad de que el planeta no esté tan desértico como se aprecia a simple vista, pero obtener confirmación irrefutable de ese origen no es tan sencillo. Es de esperar que TGO ayude a dar pasos mucho más grandes en esa dirección, sobre todo porque será capaz de obtener datos con mucha más precisión que su precedente europeo en el planeta, Mars Express, y cuando se lance el rover de la misión de 2018, se espera avanzar todavía más en este aspecto. La tecnología de ExoMars Prueba del paracaídas del módulo Schiaparelli. Foto: USAF Arnold Engineering Development Complex. El orbitador, además, también tiene sus propios objetivos tecnológicos. Hasta 2022, se prevé que actúe como plataforma de comunicaciones entre las misiones en la superficie de Marte y la Tierra, más allá del rover de ExoMars 2018, y las particularidades de su misión obligan a que sea una nave con un funcionamiento bastante autónomo. Silvia Bayón explica que "TGO combina el traslado de Schiaparelli, las tareas científicas y la plataforma de comunicaciones entre Marte y la Tierra. Requiere mucho nivel de autonomía a bordo. Puede haber retraso de hasta 24 minutos en las comunicaciones, y tendremos un mes casi sin comunicaciones por las conjunciones solares (en 2017). Lleva algoritmos complejos para detectar y corregir fallos del sistema". Para la ESA, ExoMars tiene que demostrar que puede participar en la nueva fase de la exploración de Marte, la que debe llevar, teóricamente, hacia el desarrollo de una misión tripulada. Y la colaboración con Roscosmos, que se ha encargado de lanzar TGO, es también fundamental en ese aspecto. Como dijo Pedro Duque en el evento sobre la misión celebrado en ESAC, "es un paso adelante muy importante para demostrar que Europa en conjunto puede ser un socio muy válido para las próximas misiones de exploración". Imagen | ESA/ATG Medialab También te recomendamos Listos los detalles de la primera misión del SLS, el cohete más grande jamas construido ¿Llegar a Marte en sólo tres días? La NASA cree que es posible Cómo vender más de 500 millones de placas base: la historia de Asus - La noticia ExoMars, así es la misión a Marte más ambiciosa de Europa fue publicada originalmente en Xataka por Marina Such .

Leer más »

1.000 millones de metros de cable submarino son los responsables de que tengas Internet en casa

650_1200

En los esfuerzos por hacer desaparecer el cableado físico a nuestro alrededor, ya sea con conectividad inalámbrica de corta distancia - WiFi, Bluetooth -, o con teléfonos móviles y satélites, no debemos olvidarnos de que los cables están muy presentes en nuestras comunicaciones, son demasiado necesarios. ¿Dónde están? Pues la mayoría nos ayudan a transportar datos entre continentes, surcando el fondo marino. Las llamadas internacionales, mensajes que mandamos, y transmisiones que se realizan en Internet, corren por esos cables submarinos que tenemos poco presentes, ya que no están a la vista, ni suelen ser noticia. El 99% de las comunicaciones transoceánicas se realizan por ahí, consiguiendo una velocidad hasta ocho veces superior a la que se espera con la red de satélites. No, la mayoría de las comunicaciones con el punto más alejado del planeta no se realizan por satélite, salen desde la playaNo sabría decir la cifra exacta, tampoco la encontré demasiado actualizada, pero según los últimos datos que se manejan, debería haber al menos un millón de kilómetros de cables submarinos dando vueltas al planeta (Builtvisible dice que 1.092.658 de kilómetros). Prácticamente todos los continentes e islas importantes están comunicados mediante la infraestructura de redes submarinas, conectando a las diferentes economías del planeta. Si nadie lo ha solucionado en las últimas semanas, deberíamos dejar fuera del juego a la Antártida. Le ganó el pulso al satélite Por moderna que nos parezca la comunicación vía satélite, los cables submarinos empezaron a ganarle el partido con la aparición de la fibra óptica. Las nuevas tecnologías de cableado permitían transmitir grandes cantidades de datos con una latencia muy baja. También debemos de tener en cuenta el recorrido total a realizar por parte de los datos. La circunferencia mide alrededor de 40.000 kilómetros, y la distancia entre dos puntos que necesitan estar bien comunicados como Japón y Estados Unidos es de unos 9.000 kilómetros. Cubrir ese tramo con cable de fibra resulta siempre un recorrido más corto que la distancia hasta un satélite, que suele estar por encima de los 36.000 kilómetros (la información tiene que subir y bajar, es el doble de recorrido). Otro aspecto en el que el cable se muestra como una solución más interesante tiene que ver con con la resistencia ante inclemencias meteorológicas. Al satélite le puede molestar un tifón, incluso la lluvia, mientras que el cable descansa “tranquilo” en el fondo marino, y se posiciona como una infraestructura más fiable y rápida. 150 años bajo el mar Nos tenemos que remontar a 1866 para conocer al primer cable transatlántico. Cables telegráficos que duraron entre 60 y 70 años en funcionamiento hasta que llegó el cable telefónico (1956). El siguiente cambio importante llegó en los ochenta con el despliegue de la fibra óptica. Tratamos la situación de la fibra en España en este artículo. Os recomiendo pasaros por la web de Telegeography, tienen un mapa interactivo en el que podemos ver los cables que hay en el planetas (actualizados a 2015). También os invito a pasar por el mapa que ha construido la gente de builtvisible. Podemos movernos de 1984 hasta el año 2017, viendo cómo cambia el cableado, seleccionado empresas, etc. El proceso de colocar los cables no ha cambiado demasiado en estos 150 años, barcos que atraviesan el mar lentamente desenrollando el cableado hasta que descanse en el fondo. Obviamente los cables ahora son más delgados y manejables, y existe tecnología para poder hacerlo todo con mayores garantías, incluso se puede jugar con enterrar los cables. Si la profundidad es inferior a 1.000 metros, el cable se suele enterrarEn las zonas con poca profundidad deben tener cuidado con el contacto con barcos, también con el ecosistema que allí vive: lugares donde descansan los peces, arrecifes de coral. Los cables en estas zonas, enterrados o no, suelen ser de mayor diámetro, para resistir en caso de que algún elemento móvil choque con ellos. Os preguntaréis cómo entierran esos cables, pues con una especie de arado del fondo marítimo. Una parte funciona como una azada que crea el surco donde va a descansar el cable, luego la propia corriente marítima se encarga de taparlo. A 8.000 metros de profundidad Las complicaciones llegaron con la profundidad. En el fondo marino nos encontramos con lo mismo que en la superficie: montañas y profundidades, en definitiva, zonas complicadas, en condiciones muy diferentes de trabajo. Por esto debe haber una exploración previa para decidir la ruta, utilizando tecnologías muy sofisticadas. 16 kilómetros de cable mientras consiguen depositarlo en el fondoEl punto más profundo en el que hay un cable de este tipo es la Fosa de Japón, donde hay descansando una red a una profundidad de 8.000 metros. Como el Monte Everest, pero bajo el océano. En realidad el cable debe ser bastante más largo que esa profundidad en el momento de su colocación, ya que el barco está en movimiento soltando cable, y el ángulo que forma con el mayor punto de profundidad hace que el cable llegue a medir 16 kilómetros. Desplegar un cable de Japón a Estados Unidos toma varios meses, si tenemos en cuenta todo el proceso de exploración nos vamos por encima de los dos años. Los cables que descansan en la orilla o cercanos a ellos están más protegidos Los enemigos de los cables Arreglar un cable que está en esas profundidades no es nada sencillo, no se puede bajar a arreglarlo allí, sino que se sube a la superficie el trozo a reparar. Se realiza con una especie de garfio, y en zona seca se trabaja en unir o solucionar el daño, en un proceso muy costoso en tiempo - una semana - y dinero, ya que no hay demasiados barcos que realicen este trabajo. Cada año se producen entre 100 y 150 cortes de cables submarinosEntre los culpables tenemos los accidentes medioambientales, anclas de barcos, o incluso peces. La fauna marina puede comerse el recubrimiento - tiburones -, atraídos por los campos magnéticos. Afortunadamente los nuevos diseños de cables contemplan este problema. Los casos mas complicados conocidos tienen relación con terremotos. En 2006 uno con magnitud 7.0 rompió ocho cables en la zona de Taiwán, afectando gravemente a las comunicaciones en China. Un total de once barcos estuvieron 49 días trabajando en la reparación. Hablando de terremotos, se están incorporando sistemas de reconocimiento de movimientos en el fondo oceánico, que puedan derivar en algo más complicado. Teniendo en cuenta que allí se originan, y la velocidad con la que el cable puede avisar de lo que acontece, pueden darnos un margen de maniobra muy grande para prevenir situaciones en las ciudades. Los robos no son una causa importante de mal funcionamiento de una red de comunicaciones tan estratégica - menos con el cambio a la fibra -, pero la realidad es que los países tampoco protegen especialmente los cables. ¿Cómo es el cable? Podemos pensar que esos cables son increíblemente gruesos, pero no, tienen más o menos el tamaño de un brazo humano. No hace falta mucho más espacio para proponer una protección para los cables de fibra óptica, que podemos ver en dos formatos en la siguiente imagen. El blanco - 17 milímetros de ancho - está destinado a zonas profundas, el negro, para zonas más cercanas a la orilla, y está protegido con acero. No encuentro una mejor forma de mostrar cómo es por dentro, y su protección que con la siguiente imagen: 1 - Polietileno2 - Cinta tipo Mylar3 - Cables Trenzados de acero 4 - Aluminio que sirve como barrera contra el agua 5 - Policarbonato 6 - Tubo de aluminio o cobre7 - Un protector para el agua llamado Petroleum jelly (vaselina)8 - La fibra óptica ¿Cuánta información se puede transmitir por el cable? Del orden de 3.840 gigabits por segundo, o lo que es lo mismo 102 discos DVD en ese corto periodo de tiempo, todo gracias a un hilo de fibra óptica. Si tenemos en cuenta que un cable hay ocho pares de hilos de fibra, nos podemos ir a 1.700 discos DVD por segundo, por encima de los 60 terabits. Si parece que hay nivel de sobra para soportar las necesidades de la red de redes, decir que no se trata de una tecnología estancada, hay un futuro prometedor para la fibra óptica. Pero tampoco se libra de problemas de seguridad, como hemos tratado en alguna ocasión. Podéis ampliar información en este artículo de The Atlantic. Nuevas inversiones Según datos de TeleGeography, la nueva red de cables se ha visto incrementada en un 44% de 2013 a 2014, con un ancho de banda de 65 terabits por segundo. Es especialmente relevante la creación de cables “privados”, la mitad de ellos crean rutas para las grandes compañías de tecnología. Consiguen mejores precios así que tirando de la infraestructuras de empresas especializadas en telecomunicaciones. Esas redes privadas crecieron un 66% entre 2009 y 2014, comparado com la expansión de las “públicas” que lo hicieron en un 42%. No paran de llegar inversiones importantes de grandes compañías en los últimos años. Google invirtió 300 millones de dólares en cables en el pacífico - también invierte en unir Brasil con Estados Unidos -, Facebook hizo lo propio en la misma zona. Recientemente os informamos sobre los movimientos de Microsoft, que incluso se quiere llevar los centros de datos bajo el mar: Project Natick. En cuanto a los gobiernos, no parece fácil que se pongan de acuerdo en el uso, como es el caso de los Estados Unidos con la Unión Europea. Más información | NEC | Telegeography | Wikipedia También te recomendamos G.fast, el sucesor de las líneas DSL, ofrecerá 1000 Mbps sobre el par trenzado Para conseguir una mejor "nube", Microsoft invierte en cables submarinos Cómo vender más de 500 millones de placas base: la historia de Asus - La noticia 1.000 millones de metros de cable submarino son los responsables de que tengas Internet en casa fue publicada originalmente en Xataka por Kote Puerto .

Leer más »

AlphaGo gana la última partida a Lee Sedol y cierra con un contundente 4-1 final

650_1200

Hoy se celebraba la última de las cinco partidas que enfrentaban a Lee Sedol, jugador profesional de Go y campeón del mundo en varias ocasiones, contra AlphaGo, el programa desarrollado por Google DeepMind. Este último ha vuelto a ganar la partida y ha cerrado el encuentro con un resultado final de 4 victorias y una derrota. Sedol no ha podido repetir la victoria que cosechó este fin de semana y se mostraba muy decepcionado al final de la partida. El logro de AlphaGo y de los responsables de DeepMind es asombroso y deja claro que una de las fronteras de la inteligencia artificial -lograr que una máquina jugase de forma óptima a Go- ha sido ya superada con éxito. ¿Cuál será el siguiente hito de esta disciplina? Un futuro brillante para la inteligencia artificial La partida ha mantenido la tensión durante cerca de cinco horas y ha agotado los periodos de tiempo iniciales y parte de los tres tiempos extra que se conceden a los jugadores. De hecho quedaban ya pocas posiciones que ocupar pero parece que Sedol vio claro que su posición final iba a ser inferior a la que AlphaGo había ido construyendo a lo largo de la partida. Esta victoria de AlphaGo se suma a la que este programa ya consiguió el pasado mes de octubre (aunque nos enteráramos en enero) contra el campeón europeo Fan Hui -que más tarde se unió al equipo de AlphaGo como consultor- y confirma que el desarrollo de los ingenieros de Google DeepMind ha logrado el objetivo de jugar a Go de forma casi perfecta gracias al uso de la inteligencia artificial y de las técnicas de aprendizaje por refuerzo que han sido vitales en la evolución de su forma de jugar. Queda por ver cuál es el próximo logro de los responsables de esta división de Google, que por ejemplo han anunciado una colaboración con el National Health Service en el Reino Unido, el servicio de sanida pública con el que por lo visto se plantea una aplicación básica de seguimiento de datos que podría dar lugar a mejores diagnósticos en todo tipo de pacientes. En Xataka | De ajedrez, máquinas y humanos También te recomendamos Lee Sedol logra vencer a AlphaGo y el mundo se pregunta si las máquinas pueden errar Cómo vender más de 500 millones de placas base: la historia de Asus La máquina supera al humano: el mejor jugador de Go pierde frente a la inteligencia artificial de Google - La noticia AlphaGo gana la última partida a Lee Sedol y cierra con un contundente 4-1 final fue publicada originalmente en Xataka por Javier Pastor .

Leer más »

¿Cómo evitar que la gente saque el móvil en el teatro? En China lo tienen claro: con láseres

650_1200

Seguro que te resulta familiar esta situación: estás en el cine o teatro, con toda la sala a oscuras y sin perder detalle de lo que ocurre en el escenario, cuando alguno de tus vecinos de butaca decide consultar algo en el móvil, iluminando con la luz de la pantalla toda la zona. Molesto, ¿verdad? Y no solo para ti, sino también para la gente que puede estar actuando en el escenario. ¿Cómo evitarlo? En China lo tienen claro: con láseres. Aunque muchos cines y teatros chinos poseen inhibidores de frecuencia que evitan que los teléfonos móviles puedan recibir llamadas o mensajes, algunas salas se encontraban con espectadores no dejaban de consultar el móvil, tomar fotos con flash o vídeos durante las actuaciones. Para evitarlo, los acomodadores van "armados" ahora con punteros láser. Se sitúan detrás de todas las butacas y, nada más que ven una pantalla encendida, apuntan con el láser directamente a ella. In China there's a new way to battle cellphones in theaters: laser beams https://t.co/fYUxpiKQag pic.twitter.com/OUyqvlfTTd— The New York Times (@nytimes) 15 de marzo de 2016 Técnicamente, los láseres no hacen nada a los teléfonos, pero sí que sirven para llamar la atención de sus dueños, "señalarles" que están haciendo algo mal y que la "vergüenza" de este haga que apague el dispositivo. La técnica funciona: en declaraciones al New York Times, uno de los ejecutivos a cargo del National Center, asegura que el uso no apropiado de los móviles dentro de sus instalaciones se ha reducido desde que emplean esta técnica. Sí, se lo que estáis pensando: ¿y no es peligroso para los ojos? Por eso los acomodadores apuntan siempre desde la parte trasera del teatro y directamente al dispositivo, algo que están entrenados para hacer con puntería y sin errores. Se trata de una forma silenciosa de llamar la atención, aunque habría que ver las reacciones de la gente que, por primera vez, ven recaer un punto láser sobre ellos en plena oscuridad. Vía | New York TimesImagen | Rounded by gravity También te recomendamos AirScript muestra subtítulos en obras de teatro Mira más tu teléfono (o por qué el vídeo viral "Look Up" es tan bonito como falso) Cómo vender más de 500 millones de placas base: la historia de Asus - La noticia ¿Cómo evitar que la gente saque el móvil en el teatro? En China lo tienen claro: con láseres fue publicada originalmente en Xataka por María González .

Leer más »