Tecno

Tecnología en Gral

La NASA tiene nuevo presupuesto y nueva misión prioritaria: llevar a la humanidad a Marte en 2033

650_1200

Hoy después de varios debates, el Congreso de los Estados Unidos ha enviado la iniciativa de ley que autoriza el nuevo presupuesto para la NASA, el cual ha sido fijado en 19.508 millones de dólares anuales. Esta cantidad se mantiene casi intacta respecto a lo que se había estimado en diciembre del año pasado dentro del Senado, pero los cambios vienen en el cómo se deberá usar ese dinero, que es donde están claves de lo que será la NASA ahora bajo la administración de Donald Trump. La nueva Ley de Autorización de Transición de la NASA de 2017 trae consigo un mandato muy importante: llevar a la humanidad a Marte en la década de 2030. Algo que sin duda es de gran relevancia, si no fuera porque esto significa el cierre de otros proyectos y misiones, la mayoría relacionados con la exploración de nuestro planeta Tierra. Adiós Tierra, hola Marte Esta ley, la cual fue aprobada de forma unánime y ahora está en la Casa Blanca para que sea firmada y autorizada por el presidente, se centra casi exclusivamente en viajes espaciales e investigación científica de objetos en la galaxia. Es decir, muchos de los programas científicos centrados en la Tierra han sido cancelados, o bien, pospuestos de forma indefinida. Para poner un par de ejemplos, la misión de redirección de asteroides, donde se buscaba capturar uno cercano a la Tierra para su exploración e investigación, ha sido suspendida; y lo mismo ha sucedido con el estudio y monitoreo del cambio climático antropogénico, otro proyecto que ha quedado en el limbo. De entre los nuevos objetivos que se le han fijado a la NASA, nos encontramos con el impulso a los programas Orion y SLS, los cuales deberán enviar una misión no tripulada durante 2018. Pero lo más importante ha sido el énfasis que se está dando a los programas centrados en Marte, donde el Congreso está fijando el año 2033 como año limite para que la NASA lleve humanos al planeta rojo. "Los humanos deberán estar cerca o en la superficie de Marte en la década de 2030". Por lo anterior, la NASA deberá presentar un "plan de exploración humana" antes del 1 de diciembre de 2017. En este plan deben venir desglosados los objetivos paso a paso para llegar a Marte, una hoja de ruta que explique cada misión, su objetivo, la entrega de resultados, y el cómo nos ayudará a llegar a este planeta. Por fortuna la NASA ya había presentado hace algunos meses las etapas previstas para la futura colonización de Marte, que están centradas en tres misiones principales: Earth Reliant (de ahora hasta mediados de 2020), Proving Ground (2018-2030), y Earth Independent (de ahora a 2030s y más allá). Los nuevos objetivos de la NASA también se centran en la innovación dentro de las aeronaves supersónicas y las capacidades de viaje, así como establecer presencia humana más allá de la órbita baja de la Tierra. Por otro lado, esto también representa que las misiones que se tenían previstas a la Luna hayan sido pospuestas hasta 2020, momento en el que se determinará si de verdad necesitamos ir a nuestro satélite nuevamente. Más información | Congreso de los Estados Unidos En Xataka | La NASA asegura que que Marte puede volver a tener agua líquida y ser habitable, incluso tienen un plan para ello También te recomendamos Este espectacular vídeo 4K de la Tierra vista desde el espacio es la mejor forma de iniciar 2017 17 imágenes espectaculares hechas con un móvil con las que aprender los mejores trucos fotográficos La NASA asegura que que Marte puede volver a tener agua líquida y ser habitable, incluso tienen un plan para ello - La noticia La NASA tiene nuevo presupuesto y nueva misión prioritaria: llevar a la humanidad a Marte en 2033 fue publicada originalmente en Xataka por Raúl Álvarez .

Leer más »

La séptima temporada de Juego de Tronos se estrena el 16 de julio y ya tenemos el primer tráiler

650_1200

A través de una transmisión en directo en Facebook Live, donde los espectadores tenían que escribir 'FIRE' y otras palabras relacionadas con la serie, esto con el objetivo de derretir un bloque de hielo, HBO está anunciado la fecha de estreno de la esperada, y retrasada, temporada siete de Juego de Tronos. Nunca pensamos que estaríamos viendo en directo cómo se derrite un bloque de hielo, pero en fin... Después de algunos problemas con la transmisión, HBO está confirmando que el próximo 16 de julio se estrena finalmente la temporada siete en Estados Unidos y Latinoamérica, ya que España tendrá que esperar un día más, es decir, el 17 de julio. Y hasta tenemos el primer tráiler: "La gran guerra ya está aquí" Después de haber lanzado dos pequeños teasers durante el fin de semana, y hace unas horas se diera a conocer el primer póster oficial, HBO finalmente confirma que Juego de Tronos regresa a la pantalla este domingo 16 de julio. Ahora sólo nos falta saber si se mantiene la decisión de los siete episodios o se amplía a diez como se llegó a comentar en una serie de rumores. 17 de julio en España Cabe señalar que en España el estreno se retrasa un día, para el 17 de julio, esto debido a la "labores de doblaje de cada episodio". En el caso de Latinoamérica se mantiene la fecha del 16 de julio, ya que se transmitirán los episodios con subtítulos al español. En Xataka | HBO quiere exprimir aún más a 'Juego de Tronos' con una precuela y más episodios para la temporada ocho También te recomendamos 17 imágenes espectaculares hechas con un móvil con las que aprender los mejores trucos fotográficos HBO, censuras y el absurdo: por qué una niña no pudo usar la frase 'Winter is coming' 'Juego de Tronos' le da la victoria a HBO en los Emmys, Amazon y Netflix se quedan atrás - La noticia La séptima temporada de Juego de Tronos se estrena el 16 de julio y ya tenemos el primer tráiler fue publicada originalmente en Xataka por Raúl Álvarez .

Leer más »

La levadura que esconde el secreto para derrotar todas las enfermedades genéticas

650_1200

A simple vista es una levadura normal capaz de hacer pan, vino, combustible o medicamentos como cualquier otra. Pero, si nos fijamos más de cerca, podíamos ver que seis de sus 16 cromosomas están hechos por nosotros. Hoy un equipo internacional del Synthetic Yeast Genome Project (Sc2.0) acaba de anunciar que han sido capaces de construir cinco cromosomas de la levadura del panadero, la Saccharomyces cerevisiae. Junto con el que se creó en 2014, suman más de un tercio del genoma de la levadura. Estamos ante un avance fundamental en la construcción del primer organismo complejo totalmente sintético. Y, aunque no lo parezca, abre la puerta para nuevas terapias génicas en las que los científicos podrían trabajar con redes enteras de genes y no con uno sólo como hasta ahora. La levadura frankenstein Desde que en 1996 los científicos lograron trazar el mapa genético completo de la levadura, se ha convertido en un modelo biológico muy importante. La Saccharomyces cerevisiae se usa para fabricar cerveza, biocombustibles o medicamentos. En marzo de 2014, los investigadores que dirige Jef Boeke construyeron el primer cromosoma. Hoy se publican siete artículos distintos. Los cinco primeros hablan sobre el ensamblado de los cromosomas synII, synV, synVI, synX y synXII (el de 2014 fue el synIII). En los otros dos artículos se habla de la estructura tridimensional de varios cromosomas sintéticos en uno y, en el otro, sobre el proyecto de crear un organismo totalmente sintético. Algo que el Sc2.0 planea que llegue a final de año, cuando puedan cambiar los 16 cromosomas de la levadura. Aprender ingeniería genética sobre la marcha Siempre hemos dicho que estábamos aprendiendo los rudimentos básicos del "idioma" genético. Entendemos palabras, frases sencillas e incluso algunos modismos, pero nos queda muchísimo no sólo para escribirlo con soltura, sino para leerlo de forma natural. Estos trabajos, además, nos ayudan a entender qué impacto real tiene cada gen. La idea es que, al sustituir los cromosomas, el organismo podría producir mejores versiones de esos productos, nuevos antibióticos o combustibles más eficientes para el medioambiente. Para conseguirlo, el equipo ha usado por primera vez un paquete de software llamado BioStudio desarrollado específicamente para diseñar cromosomas. Esto les ha permitido no sólo producir cromosomas de forma sintética, sino que también han podido hacerles cambios para resolver problemas (o sencillamente, aprender). Según informan los investigadores, tras añadir estos cambios, las células siguieron creciendo con normalidad. Esto abre la puerta a realizar cambios con un alcance mayor que exploren lo límites de la ingeniería genética y consigan unas levaduras más potentes, útiles y flexibles. También te recomendamos Dolly y la clonación: nacimiento, fama y ocaso de la oveja más famosa del mundo en 14 imágenes 17 imágenes espectaculares hechas con un móvil con las que aprender los mejores trucos fotográficos Los "bebés a la carta" reciben un apoyo clave para su futuro cercano - La noticia La levadura que esconde el secreto para derrotar todas las enfermedades genéticas fue publicada originalmente en Xataka por Javier Jiménez .

Leer más »

Canonical se centra en los snaps y el IoT mientras lleva a Ubuntu Touch al banquillo

650_1200

Ubuntu Touch es casi historia, o por lo menos ha sufrido un parón importante en su desarrollo. La última pista en esta dirección la vimos durante el Mobile World Congress de este año, cuando en su stand daban a entender que todos sus esfuerzos pasan ahora por publicitar su Ubuntu Core enfocado al Internet de las Cosas. Lo hicieron mostrando sólo en una pequeña mesa un puñado de Fairphone 2 en los que, gracias a la comunidad, se puede instalar Ubuntu. Pero más allá del evento de Barcelona, desde Canonical han llegado a admitir que sus esfuerzos en implantar su sistema de paquetería Snap es ligeramente incompatible con los dispositivos móviles actuales, por lo que todo queda parado hasta que terminen de desarrollar un Unity 8 que lleva demasiados años de retraso. Mientras, la gran protagonista pasa a ser Ubuntu Core, la versión de su distribución especialmente desarrollada para el Internet de las Cosas. Ubuntu Touch entra al banquillo Canonical se ha tirado los últimos cuatro años tratando de hacer ruido en el sector de los smartphones con un entorno de escritorio convergente Unity 8 para Ubuntu que, a día de hoy, ni siquiera es aún la opción por defecto en el escritorio. El tiempo pasa, y mientras apenas han conseguido poner un puñado de móviles y tabletas con su SO en el mercado, a Windows Phone le ha dado tiempo prácticamente a desaparecer y a Firefox OS a morir definitivamente. A principios de enero, el Director de Herramientas para Desarrolladores y Aplicaciones de Canonical Pat McGowan dejó claro en la lista de correos de Ubuntu Phone que se ha detenido el desarrollo de Ubuntu Touch hasta que no esté listo para adoptar el sistema de paquetería de los Snaps. Hasta entonces no se seguirá evolucionando con la versión móvil del sistema operativo, y únicamente habrá actualizaciones de seguridad. En su lugar Canonical pasará a centrarse en el desarrollo de las Snaps. No sólo por un Ubuntu Core que va ganando protagonismo, sino que como nos contaron en Genbeta también en la versión para escritorio de Ubuntu. Aquí este nuevo sistema de paquetería es también parte del futuro, puesto que en las próximas versiones habrá una tienda de aplicaciones especialmente diseñada para ellas. Hay que tener en cuenta que los recursos de Canonical son limitados, por lo que es normal que para potenciar una tecnología tengan que sacrificar otra. De hecho, Pat McGowan también confirma que los esfuerzos en Unity 8 ahora están centrados en lograr por fin que la versión para escritorio esté lista, por lo que no podemos esperar novedades en su versión móvil a corto plazo. Por si estas declaraciones no fueran suficiente, tal y como recoge OMG!Ubuntu, el desarrollador de Canonical Lukasz Zemczak también ha asegurado que su decisión de centrarse en los snaps también ha hecho que su arquitectura de destino pase de ser armhf a ser arm64, lo que es otro gran problema de cara a los móviles existentes actualmente en el mercado. Esto hará que sus esfuerzos para con Ubuntu Touch se centren únicamente en darle soporte a la familia de tabletas M10 de BQ. Por lo tanto es posible que durante los próximos meses no veamos llegar al mercado nuevos teléfonos con Ubuntu mientras se centra en otras cosas. Es muy pronto para decir si esto supone el final del proyecto de Ubuntu Touch, pero en el caso de volver lo hará de una forma diferente y ejecutando un tipo de aplicaciones bastante distinto. Canonical se centra en los snaps y Ubuntu Core El Mobile World Congress es el evento de móviles más grande del mundo, y en él Canonical sólo mostró proyectos basados en Ubuntu Core, la versión del Internet de las Cosas. Está claro que quieren hacerse fuerte en este sector, pero también hay que tener en cuenta que Ubuntu Core es otro escaparate para lo que se puede conseguir con las Snaps. Se trata de un nuevo estándar que está queriendo difundir Canonical en la comunidad de GNU/Linux. Gracias a él no sólo se pueden instalar aplicaciones casi aisladas del resto del sistema dentro de Ubuntu, sino que en el caso del IoT, se pueden crear Snaps con los que cambiar totalmente la configuración de un robot con sólo hacer doble click. Canonical también presumió de que muchas grandes empresas, como Tesla en su Model S, utilizan Ubuntu como sistema operativo de a bordo. No es que ambas empresas hayan llegado a un acuerdo de colaboración, sino que Tesla parece haber decidido utilizar Ubuntu en sus pantallas de información y entretenimiento. En un paralelismo linuxero, casi podríamos decir que Canonical parece aspirar a ser en el mundo del IoT lo mismo que Red Hat en el empresarial, donde la empresa del sombrero rojo está haciendo una millonada con su sistema operativo de código abierto. Para conseguirlo su principal arma es Ubuntu Core, que funciona también mediante los paquetes Snap. Podemos decir en resumen que los esfuerzos de Canonical por crear un sistema operativo convergente siguen adelante, sólo que han cambiado totalmente el enfoque que tenían hasta ahora. Ya no quieren conformarse con unir móvil y PC, sino que quieren utilizar el estándar de los snaps para crear puntos en común entre PC e Internet de las cosas. Posiblemente dependa de cómo les vaya en esta nueva aventura el que Ubuntu Touch siga adelante. Tal y como hemos dicho antes. Una vez consigan que Unity 8 esté a la par que el actual Unity 7 en estabilidad, pasará a ser el entorno de escritorio predefinido para su versión de sobremesa. Y cuando ya tengan esto terminado, entonces sí que podríamos ver el retorno de los esfuerzos móviles. Para entonces, si todo les va según esperan, los snaps ya habrán sido más aceptados y tendrán un ecosistema de aplicaciones mucho mayor y compatible con PCs, móviles y cualquier dispositivo del Internet de las Cosas. Sería un retorno por todo lo grande y con alguna posibilidad más, aunque no muchas, de hacer algo más de ruido en el mercado de los móviles del que pueden hacer ahora mismo. En Xataka | Canonical lanza una versión de Ubuntu para la Internet de las Cosas También te recomendamos 17 imágenes espectaculares hechas con un móvil con las que aprender los mejores trucos fotográficos Bq presentará su primer dispositivo basado en Ubuntu el próximo 24 de febrero "Me sorprendió que no demasiada gente entendiera el futuro de Ubuntu", Entrevista con Mark Shuttleworth - La noticia Canonical se centra en los snaps y el IoT mientras lleva a Ubuntu Touch al banquillo fue publicada originalmente en Xataka por Yúbal FM .

Leer más »

El nuevo Nokia 3310 lo vuelve a hacer: las reservas superan lo esperado tras haber sido el protagonista del MWC 2017

1024_2000

Si habéis asistido al MWC 2017 lo sabréis, y a los que no os lo mostramos en un vídeo (minuto 13:00 aproximadamente) de un paseo por la feria: el stand de Nokia era un completo hormiguero constante gracias a recuperar un terminal de hace 16 años. De lo que no estábamos seguros, ni nosotros ni al parecer los distribuidores, es que eso iba a ser el precedente de que el número de reservas del nuevo 3310 superase las expectativas. Al menos así lo han confirmado desde el distribuidor británico de teléfonos Carphone Warehouse a The Telegraph, hablando de un nivel de demanda "extraordinario" y de que la expectación con el mismo no sólo quedó en un hype pasajero. Un móvil muy particular con un precio que también se diferencia de la tónica habitual, ya que hablamos de 59 euros. Un mercado que puede ser mayor de lo previsto Cuando Nokia decide recuperar este terminal y lanzar una versión actualizada no es algo casual y basado en un recuerdo entrañable: la compañía vendió más de 125 unidades en todo el mundo del original (hace 16 años). Tras rumores y pistas, al final la idea se materializó en un nuevo 3310 que no llega a ser un smartphone pero que tampoco se queda tal cual en el teléfono que era inicialmente. Lo que han comunicado desde Carphone Warehouse, concretamente el director de compras Andrew Wilson, es que el nivel de demanda por dicho teléfono, un feature phone, supera lo previsto sólo una semana después de su presentación en el MWC. Eso sí, no nos dicen números ni cuáles eran esas expectativas, lo cual aportaría una mejor visión de este aparente éxito. Esto nos recuerda un poco a esas ventas de récord de Xiaomi en cuestión de segundos, aunque en aquellas ocasiones sí determinaban un número de unidades (hablando de 200.000 teléfonos en el caso del M2S, por ejemplo). Veremos si Nokia afronta bien la demanda en cuanto a stock y si finalmente tenemos cifras de ese exceso de reservas, de momento lo que sabemos es que también ha sido muy buscado en internet. A parte de la nostalgia, el que probablemente sea el reclamo principal, un teléfono así supone un buen terminal de "por si a caso", que además promete tener una muy buena autonomía (algo en lo que no se prodigan demasiado muchos de los terminales actuales). De hecho, pudimos entrevistar a Luis Peixe, Country Manager de HMD Global en España y Portugal, y preguntarle directamente por este lanzamiento, y habló de que sí consideran que hay un mercado para este nuevo 3310, pero más como segundo terminal (y nos dejó con la duda de si habría más "reciclajes" de terminales míticos). Vía | EngadgetEn Xataka | Nokia 3310: el móvil "indestructible" resucita con un mes de autonomía en espera (y cuesta 50 euros) También te recomendamos "Hay mercado para el Nokia 3310, pero en realidad es un proyecto que viene de nuestro corazón", Luis Peixe (Nokia) 17 imágenes espectaculares hechas con un móvil con las que aprender los mejores trucos fotográficos Siete cosas que puedes hacer y siete que no con los nuevos Nokia 3310 - La noticia El nuevo Nokia 3310 lo vuelve a hacer: las reservas superan lo esperado tras haber sido el protagonista del MWC 2017 fue publicada originalmente en Xataka por Anna Martí .

Leer más »

Crónica tecnológica de un Salón de Ginebra que aún huele a gasolina

1024_2000

Justo una semana después de un Mobile World Congress 2017 en el que, aparte de móviles, se ha hablado hasta la saciedad del 5G, de bajar tiempos de latencia para generar un ecosistema seguro para el coche autónomo, o del coche conectado y sus mejoras teóricas para la seguridad vial, hemos estado de visita en el Salón de Ginebra 2017, una cita ineludible para los amantes del mundo del motor con el añadido de ser el "motor show" más "show" de todos los del calendario anual. Nuevos modelos en todas las gamas de coches, nuevos super deportivos, conceptos y... ¿nuevas tecnologías? Hacemos un repaso con las tendencias tecnológicas que nos deja este Salón de Ginebra 2017. Sedric, el coche autónomo nivel 5 de Volkswagen Uno de los anuncios más llamativos fue el de 'Sedric' (la creatividad que surge al unir en una palabra "Self Driving Car"), el coche autónomo de nivel 5 (el máximo de los seis niveles contemplados) del grupo Volkswagen. ¿Qué quiere decir que sea de nivel 5? Que podrá desplazarse sin intervención humana. Habrá que decirle simplemente dónde queremos ir y del resto se encargará el propio vehículo. Es un concepto de coche (aunque no lo parezca) autónomo, eléctrico y con unas ventanillas que son pantallas OLED que está pensando tanto para uso público como privado. No sabemos si acabará llegando al mercado algún día, pero la idea nos gusta. Eso sí, no dejaron verlo expuesto en el propio Salón, algo que demuestra el grado de prototipo que es. Los drones al rescate En asociación con la Cruz Roja austriaca, Jaguar Land Rover presentó una versión del SUV 'Discovery' llamada 'Discovery Project Hero'. ¿Su peculiaridad? Que cuenta con un dron que sale desde el techo del vehículo y le acompaña en todo momento. Está pensado para situaciones de rastreo y rescate, especialmente aquellas más complicadas, como terremotos, tormentas, de noche o en zonas menos accesibles para seres humanos (bosques, montañas). El dron puede emitir imágenes en directo al equipo de rescate que va en el 'Discovery', permitiendo una vista de águila especialmente útil para encontrar heridos o posibles supervivientes, o valorar el terreno después de un accidente o catástrofe. El neumático del futuro Sin duda, una de las tecnologías más interesantes fue el Eagle 360 Urban, un concepto desarrollado por Goodyear que pretende acercarnos al neumático del futuro. ¿Y cómo se lo imaginan? Con utilidades como la autorreparación en caso de pinchazo (algo que no es nuevo y que otras marcas han explorado en los últimos años) y, tal vez lo más interesante, el aprovechamiento de la inteligencia artificial para adaptar el neumático a las diferentes situaciones climatológicas, al estado de la calzada, a nuestra manera de conducir... Goodyear Eagle 360El neumático del futuro será esférico para GoodyearPublicado por Xataka en Martes, 7 de marzo de 2017 El resto de fabricantes (Bridgestone, Pirelli...) se centraron en contar la optimización de sus tecnologías para conseguir neumáticos más eficientes y duraderos, pero no vimos nada tan "rompedor" como la tecnología futurista de Goodyear. Interiores táctiles Habitáculo del nuevo 'Land Rover Velar' 2017 La propuesta del SUV 'Land Rover Velar', aparte de sus 380 CV y un diseño muy refinado, se centra en una experiencia táctil dentro del vehículo. En la parte superior del habitáculo monta una pantalla táctil doble de 10" InControl Touch Pro Dip, para las funcionalidades multimedia, y en la parte inferior, donde habitualmente encontramos los botones de climatización, calefacción, etc. encontramos otra pantalla táctil de 10" para controlar la temperatura dentro del vehículo. Además, en el volante se incluyen varios interruptores táctiles que se pueden programar para diferentes funciones (desde poner las largas a subir el volumen de una canción). Motor de hidrógeno y 800km de autonomía El 'Hyundai FE Fuel Cell Concept' nos recordó que la pelea para implementar los motores de pila de combustible sigue viva. Ya sabemos que es muy complicado porque el principal reto es que es una tecnología cara (el hidrógeno no se encuentra de manera aislada en la naturaleza y la energía para estos motores se obtiene de la fusión de hidrógeno con oxígeno), pero es una alternativa limpia muy interesante y que cada vez va puliendo otro de sus puntos débiles: la autonomía. Hyundai promete 800 kilómetros de autonomía, una cifra atractiva pero, claro, no olvidemos que esto se trata de un concepto y que llevarlo a la práctica puede llevar años (si es que acaba llevándose). Realidad virtual como espectáculo De la misma manera que en el propio MWC 2017 o en el pasado SIMO Educación, uno de los reclamos para los expositores en este Salón ha sido la realidad virtual. Algunos, como Hyundai, apostaban por mini-atracciones con simuladores de conducción y movimiento. La persona se subía, se colocaba las gafas de realidad virtual, giraba el volante, aceleraba, frenaba y sentía los botes y curvas físicamente porque aquello se movía de verdad. Otras marcas como Infiniti o Mercedes (con su EQ EN 360º) optaban por demos más tranquilas y centradas en la contemplación y en un acercamiento a aquellos que todavía no hubieran probado la realidad virtual. Pero, ¿aplicación práctica o de utilidad para el mundo del motor? Bastante limitada a simuladores y aprender a conducir, pero nada sorprendente o innovador por aquí. Y... ¿ya? Aunque son varias novedades, seguramente muchos se pregunten qué hay del coche autónomo, del coche eléctrico, del coche conectado, del 5G y de todo ese panorama innovador que estamos acostumbrados a tratar en los últimos tiempos sobre el mundo del motor. La disrupción tecnológica que soñamos en el motor aún está muy lejos Bueno, la respuesta es tan decepcionante como real. La industria del automóvil sigue moviendo miles y millones de dólares cada año, y esas cifras, como poco, hay que mantenerlas. Y para eso hay que vender coches. Por este motivo, las novedades que afectan al consumidor final tienen que ver con renovación de vehículos en determinadas gamas y, sí, cada vez con más tecnología dentro. Pero, desde luego, la disrupción, ese coche que conduce solo, está todavía muy lejos. Los coches seguirán pisando la carretera, necesitando conductor y utilizando gasolina en los próximos cinco y, seguramente, diez años. El coche del futuro está llegando, pero lo hace a velocidad de un SEAT 600. Y es que el Salón de Ginebra sigue siendo mucho de esto: Y, desgraciadamente, también de esto: Y de esto: Y hasta de esto: Por eso, aunque disfrutemos hablando de futuro e innovación en el mundo del motor, ir del MWC 2017 al Salón de Ginebra 2017 ha sido un verdadero jarro de agua fría tecnológico. ¿Disrupción? Sí, pero mucho más lenta de la que parece. Todavía sigue oliendo a gasolina y hay azafatas para atraer visitas y fotografías a los stands. Paradójicamente, el WiFi fue mucho mejor en Ginebra que en Barcelona ¯_(ツ)_/¯ En Motorpasión | Aquí tienes las 13 novedades del Salón de Ginebra que no te puedes perder También te recomendamos Así es el eléctrico y autónomo Toyota i-TRIL: en busca del vehículo urbano ideal ¿Apple CarPlay o Android Auto? basta de elecciones, Parrot incorpora ambos en un dispositivo 17 imágenes espectaculares hechas con un móvil con las que aprender los mejores trucos fotográficos - La noticia Crónica tecnológica de un Salón de Ginebra que aún huele a gasolina fue publicada originalmente en Xataka por Cesar Muela .

Leer más »

Nvidia GTX 1080 Ti, análisis: ¿cuánto mejora el rendimiento y fps de los juegos pagando 250 euros más que por la GTX 1080?

650_1200

Aunque AMD todavía no supone competencia en la gama alta de tarjetas gráficas, Nvidia ha movido ficha con la nueva GTX 1080 Ti, tarjeta que por especificaciones se coloca como la más potente dentro del mercado de consumo. En Xataka ya la llevamos probando una semana y aquí tienes la review completa y en español de la Nvidia GTX 1080 Ti. Así es la Nvidia GTX 1080 Ti Founders Edition En unos días iremos viendo por las tiendas las primeras unidades de las GTX 1080 Ti de diferentes ensambladores. La unidad que nosotros hemos estado probando durante una semana ha sido la original Founders Edition de Nvidia con 11 GB de memoria GDDR5X y que tiene un precio de venta de 829 euros, más de 200 euros por encima del precio al que podemos conseguir actualmente la GTX 1080. La Nvidia GTX 1080 Ti tiene la competencia en su propia casa y se llama "GTX 1080 por más de 200 euros menos" La Nvidia GeForce GTX 1080 Ti Founders Edition la fabrica la propia Nvidia, con un buen acabado que incluye la carcasa de aluminio fundido y una fuente de alimentación dualFET de 7 fases. Sus dimensiones son grandes pero no tendrás problemas para montarla en una carcasa miniATX, ocupando dos ranuras. En la parte de refrigeración se dispone, como ya es habitual en este tipo de ediciones originales, un solo ventilador radial con cámara de vapor. La conectividad de esta Founders Edition de la GTX 1080 Ti no disponemos de puerto DVI-D pero sí de un HDMI 2.0b y tres DisplayPort 1.4, con una resolución de salida máxima de 7680 x 4320 a 60 Hz. Para la alimentación es necesario recurrir a un conector de 6 y otro de 8 pines. Nvidia GeForce GTX 1080 Ti Founder Edition Fabricación 16 nm Chip GP102 arquitectura Pascal Núcleos CUDA 3584 Frecuencia base / acelerada 1480 / 1582 MHz Memoria 11 GB Tipo memoria GDDR5X Frecuencia 11 Gbps Interfaz memoria 352 bits Ancho de banda 484 Gbps TDP 250 W VR Ready Sí SLI Ready Sí G-Sync Sí Microsoft DirectX 12 Bus PCIe 3.0 Máx. Resolución pantalla 7680 x 4320 a 60 Hz Conectividad DisplayPort 1.42, HDMI 2.0b OpenGL 4.5 Precio 829 euros Instalación y equipo de pruebas Sacada la nueva Nvidia GTX 1080 Ti de su caja de forma muy sencilla (es un paquete muy compacto para lo habitual de las ediciones especiales de otros fabricantes), la instalamos en nuestro equipo de pruebas y todo listo para realizar los diferentes test. Nuestro equipo habitual es un PC de sobremesa ASUS G11 con el siguiente equipamiento base: procesador Intel Core i7 6700 (Skylake) a 3.4 Ghz, 16 GB de memoria RAM DDR4 2133 Mhz de Kingston y un SSD M.2 de 256 GB de Samsung. Nada más instalar la tarjeta en su lugar conviene descargar y actualizar los drivers de la misma, recién sacados por Nvidia. Si no lo hacemos la tarjeta no es reconocida por Windows 10. El resto de componentes del equipo de prueba también se actualizan a los últimos drivers disponibles en el momento de los test. Test sintéticos, ruido y temperatura en funcionamiento Como es habitual en nuestros test, arrancamos la comparativa y prueba pasando a la Nvidia GeForce GTX 1080 Ti diferentes programas para medir el rendimiento en las mismas condiciones que con tarjetas con las que vamos a compararlas a lo largo de la review. Hemos realizado test con PCMark8 en sus pruebas Creative y Home, con resultados de 8165 y 4768 puntos respectivamente. En CineBench, el test OpenCL nos deja 103,85 fps y 812 cb. A continuación evaluamos el rendimiento en los principales benchmarks de 3DMark (FireStrike Ultra, FireStrike y el Time Spy), con los siguientes resultados: La diferencia con gráficas anteriores y especialmente con la GTX 1080 con quien sin duda hay que compararla, nos ofrece una mejora que va en aumento conforme le exigimos más en las pruebas. En la que refleja el comportamiento de un equipo preparado para contenido 4K, FireStrike Ultra, la mejora de la GTX 1080 Ti respecto a la GTX 1080 es de un 20%. Si pasamos a hablar del consumo, la GTX 1080 Ti de Nvidia presenta un TDP de 250 W, y rondando esa cifra hemos medido el consumo mientras estábamos jugando y pasando test a títulos exigentes. En otras tareas como edición de fotografía, con una carga por debajo del 50% en la tarjeta, el consumo quedaba ligeramente por encima de los 110 W. En las pruebas en 3DMark, la GTX 1080 Ti va aumentando su diferencia con la GTX 1080 cuanto más le exigimos, alcanzando un 20% en FireStrike Ultra Contando con un solo ventilador y pese a su construcción metálica, la GTX 1080 Ti pasa todo el tiempo con el mismo encendido, y es bastante notoria en funcionamiento a poco que le exijamos. También en temperatura sube fácilmente de los 75 grados. En nuestras pruebas los picos los alcanzó en 82 grados a las frecuencias base, y 89 grados haciendo overclocking. Como veremos más adelante cuando hablemos precisamente de overclocking, si tu idea es tener un equipo más controlado en temperatura y ruido, la GTX 1080 Ti se queda muy justa, y parece sensato esperar a soluciones de terceros con mejor refrigeración. Overclocking con la Nvidia GeForce GTX 1080 Ti Aunque lo habitual es que las ediciones de tarjetas gráficas de terceros mejoren a las Founders Edition para tareas de overclocking, nos hemos aventurado a realizar alguna prueba con el modelo de Nvidia. Si pensamos en unas cifras de overclocking que podría apurar un usuario no experto, nos plantamos en un overclocking +150 en GPU y +300 en la frecuencia de la memoria, además de elevar el consumo máximo a 110. Los datos para este ensayo-error hasta alcanzar una cifra de overclocking sin errores nos lo proporciona la combinación de software MSI Afterburner y el benchmark Heaven de Unigine. Si nos referimos a test sintéticos, el FireStrike Ultra sin overclocking se quedó en 6556, cifra que pudimos elevar hasta 6905 una vez elevadas las frecuencias decididas para el overclocking. En nuestro test con The Division, tanto a 1080p como a 1440p en modo Ultra, estos fueron los resultados. Rendimiento de la GTX 1080 Ti con juegos 1080p Llegó la hora de jugar, que para eso hemos montado la GTX 1080 Ti en nuestro equipo de pruebas. Hemos escogido diferentes títulos, tanto con un par de años como lanzamientos más recientes para PC. En un par de ellos hemos ejecutado los mismos tanto bajo DirectX 11 como 12 pues ya con la GTX 1080 notamos bastantes diferencias en algunos test bajo Windows 10. Los juegos que hemos probado son versiones completas, configurados a 1080p de resolución y perfiles Ultra o lo más altos posible. Las mediciones de fps que indicamos son las medias realizadas tras 5 sesiones de 10 minutos de juego con cada título y medidas mediante software. La nueva GTX 1080 Ti mantiene la tendencia de las gráficas Pascal y en las versiones que ya pueden ejecutarse bajo DirectX 12, la mejora es sustancial. La diferencia entre la GTX 1080 Ti y la GTX 1080 a FullHD Si estás pensando en comprar una nueva tarjeta gráfica de gama alta y el máximo nivel, puede que tanto la nueva GTX 1080 Ti como la GTX 1080 (ahora rebajada) sean tus dos opciones claras. ¿Cuál es la variación en fps en las mismas pruebas con ambas tarjetas cuando sabemos que en el mercado tendrán una diferencia de precio que rondará los 250 euros? La mejora en nuestras pruebas ha sido de media entre un 15 y un 20%, en sintonía con el 30% general que prometía Nvidia. Nvidia GeForce GTX 1080 Ti en juego 4K Para jugadores, el sentido de la nueva Nvidia GTX 1080 Ti es aspirar a un juego 4K fluido y por encima de los 60 fps sin necesidad de rebajar nada el apartado gráfico. Y estamos ya muy cerca de ello, con mejoras en la mayoría de títulos por encima del 30%. La Nvidida GTX 1080 Ti ha sido cedida para la prueba por parte de Nvidia. Puedes consultar nuestra política de relaciones con empresas También te recomendamos Nvidia GTX 1080 Ti: más potencia que la Titan X por menos de 700 dólares 17 imágenes espectaculares hechas con un móvil con las que aprender los mejores trucos fotográficos Nvidia Shield Android TV 2017, análisis: ¿el mejor set top box del mercado? - La noticia Nvidia GTX 1080 Ti, análisis: ¿cuánto mejora el rendimiento y fps de los juegos pagando 250 euros más que por la GTX 1080? fue publicada originalmente en Xataka por Javier Penalva .

Leer más »

Esta impresora 3D de pizzas quiere darle de comer a los astronautas de la NASA… y también a ti

650_1200

La NASA sigue queriendo que sus astronautas sean capaces de comer pizza en el espacio, y es posible que pronto puedan hacerlo. Después de que hace cuatro años empezase a invertir en empresas de impresión 3D para crear precisamente este tipo de comida, de esa semilla que plantaron ahora ha nacido un proyecto capaz de imprimir pizzas en menos de cinco minutos. Se trata de la startup BeeHex, que ha desarrollado la impresora de comida Chef3D capaz de crear pizzas de 12 pulgadas, unos 30 centímetros y medio, en apenas cuatro minutos. Lo único que necesita es una serie de cartuchos con ingredientes básicos como pasta, salsa de tomate y queso, así como salsas y diferentes tipos de toppings. Esta empresa de hecho ya no se conforma con llevar sus impresoras de pizza al espacio. Actualmente se encuentran mostrándole su proyecto al gran público en ferias culinarias con la intención de lanzar su primer modelo comercial y que todos podamos imprimirnos nuestras propias pizzas en casa. Nacida de una inversión de la NASA En 2012, la NASA empezó a pensar en qué comerían sus astronautas cuando llegase la hora de lanzar misiones de varios años como las de ir a Marte, sobre todo para que no fueran tan aburridas como las clásicas barras de comida o alimentos desecados. Entonces se les ocurrió que quizá el futuro estuviese en la impresión 3D de platos de comida. La idea era la siguiente, la de poder llevar ingredientes deshidratados en cartuchos y que existiera una plataforma que pudiera imprimir pizzas a partir de ellos. ¿Y por qué pizzas? Pues porque su creación involucra la superposición de ingredientes, que es precisamente lo que se puede hacer muy fácilmente con este tipo de tecnología. Y es aquí donde entra una persona clave, el ingeniero y emprendedor estadounidense Anjan Contractor, que lleva desde finales de la década pasada tratando de desarrollar impresoras de comida. Cuando trabajó como ingeniero senior y director de proyecto en la empresa Systems and Materials Research Corporation, esta consiguió hace cuatro años un apoyo financiero de 125.000 dólares por parte de la NASA. En enero del 2016 Anjan Contractor cofundó la empresa BeeHex Inc con la intención de ir un paso más allá y empezar a desarrollar impresoras de comida comerciales. El Chef3D es el prototipo de su primera impresora 3D, y la están llevando a varios festivales culinarios estadounidenses con muy buenos resultados. De hecho, recientemente han cerrado una ronda de financiación seminal de un millón de dólares liderada por el fundador de Donatos Pizza Jim Grote para desarrollar su idea. La comida impresa se acerca a tu casa BeeHex Inc pretende lanzar su impresora a finales de año, ayudándose de un grupo de clientes piloto dentro de la industria alimentaria para probar la eficacia de su tecnología. Su misión final será la de proporcionarle soluciones a cadenas de comida rápida especializadas en pizzas como puedan ser Domino's o Pizza Hut. Por lo tanto, las impresoras de pizzas no sólo podrían estar presentes en las futuras misiones espaciales, sino que nosotros mismos también acabaremos pudiendo probar sus creaciones e incluso pidiéndolas a domicilio. De hecho, como ejemplo de que esto no es un cuento de ciencia ficción, cabe recordar que el año pasado ya se abrió en Londres un restaurante que sólo sirve comida impresa. Vía | ZDNetImagen | BeeHexEn Xataka | Cocinar e "imprimir" nuestra comida es la innovación que esperábamos en impresión 3D También te recomendamos 17 imágenes espectaculares hechas con un móvil con las que aprender los mejores trucos fotográficos ¿Por qué existen personas que le echan piña a la pizza o cebolla a la tortilla? La ciencia tiene la respuesta Gracias a esta máquina por fin nos podremos olvidar de la odiosa tarea de pelar frutas y verduras - La noticia Esta impresora 3D de pizzas quiere darle de comer a los astronautas de la NASA... y también a ti fue publicada originalmente en Xataka por Yúbal FM .

Leer más »

Un gobierno mundial: la idea de Stephen Hawking para que el avance tecnológico no acabe destruyendo la especie humana

1024_2000

Con los últimos avances tecnológicos como la inteligencia artificial, la preocupación y las divagaciones sobre el futuro que nos espera son cada vez más frecuentes, y en esto además hay figuras relativamente habituales dentro de la comunidad científica e investigadora. No, esta vez no hablaremos de algo que ha dicho Elon Musk, pero quien ha esbozado otra nueva idea sobre el hipotético futuro es Stephen Hawking, que plantea un gobierno mundial para evitar las amenazas del avance tecnológico. Ésta fue una de las ideas que dejaba en una entrevista en The Times en la que hablaba del futuro y en la que a grandes rasgos se mostraba optimista, lo cual no tendría por qué llamar la atención. Pero en este particular caso los precedentes del científico no son precisamente de ideas optimistas sobre ese futuro en el que la presencia de robots autónomos e inteligencia artificial (AI) plantean cambios en varios aspectos del sistema. Un gobierno para unirlos a todos, humanos y robots Hace poco más de un mes estos dos mismos nombres que mencionamos en la introducción formaban parte de una declaración de principios de actuación de cara al desarrollo de AI, dado que son miembros de Future of Life, la organización que (en parte) los compuso. Aunque ya se hablaba de responsabilidad, ética y otras cuestiones de la humanidad en general, no se planteó ninguna indicación estrictamente política. Para Stepehn Hawking "una forma de gobierno mundial" sería lo ideal para atajar cuestiones como el control de los peligros del avance tecnológico antes de que éstos se intensifiquen Ha sido en esta entrevista cuando Hawking ha añadido la idea de que "una forma de gobierno mundial" sería lo ideal para atajar cuestiones como el control de los peligros del avance tecnológico antes de que éstos se intensifiquen, relacionándolo con la idea de que la agresión ha sido una herramienta de supervivencia desde los inicios de la civilización (según declaraba). Peligros, enumera, como guerras nucleares o biológicas o la carrera armamentística que sí se mencionaba en esa declaración de principios y de los que habló también hace unos dos años. Eso sí. El científico teme los peligros de la inteligencia artificial sin olvidar los de la natural, dado que no ahonda en esa idea de gobierno mundial pero sí matiza que podría convertirse en una tiranía. Aunque pese a ello se considera optimista y cree que los seres humanos seremos capaces de controlar y atajar los retos que vaya planteando este futuro. Viendo el futuro con más ciencia que ficción En realidad la idea es bastante optimista si lo comparamos con otros pensamientos que el científico ha manifestado anteriormente. Hace dos años Hawking hablaba de que la amenaza para la especie humana por parte de los hipotéticos sistemas avanzados de AI del futuro, que "tomarían control de sí mismos y se rediseñarían a sí mismos a un ritmo siempre creciente. Los humanos, que están limitados por la evolución biológica, no podrían competir, y serían superados". Aunque con el fin de aportar algo de realismo y fundamento científico en la Universidad de Stanford iniciaron un proyecto basado en la publicación de una serie de trabajos que irán aportando actualidad y una previsión lo más realista posible del avance de la IA. En su primera entrega de hecho ya hacían referencia a un miedo que podía ser exagerado y que había una mala interpretación de la gente (según Peter Stone, científico del proyecto), sin encontrar nada por lo que debiésemos temer ni ahora ni en un futuro próximo. En la actualidad cuesta un poco imaginar un gobierno mundial capaz de llegar a acuerdos (ya no sólo en materia de AI), cuesta bastante menos imaginar industrias enteras controladas por robots gracias a gente como Musk, que ya ve sus futuras fábricas sin presencia humana. El empresario no se ha planteado esta idea de gobierno mundial (no al menos públicamente), pero de cara a este futuro automatizado sí habló de la necesidad de un salario mínimo universal. Vía | The IndependentEn Xataka | Lo nuevo de Elon Musk y los de Future of Life: 23 principios para que la inteligencia artificial no se nos vuelva en contra También te recomendamos 17 imágenes espectaculares hechas con un móvil con las que aprender los mejores trucos fotográficos Lo nuevo de Elon Musk y los de Future of Life: 23 principios para que la inteligencia artificial no se nos vuelva en contra Elon Musk: o los humanos se fusionan con las máquinas, o la inteligencia artificial nos hará irrelevantes - La noticia Un gobierno mundial: la idea de Stephen Hawking para que el avance tecnológico no acabe destruyendo la especie humana fue publicada originalmente en Xataka por Anna Martí .

Leer más »

Así están reaccionando las empresas afectadas por el espionaje masivo de la CIA desvelado por Wikileaks

650_1200

Después de que Wikileaks revelase el martes casi 9.000 documentos sobre cómo la CIA estaba utilizando prácticamente todos nuestros dispositivos electrónicos para espiarnos, poco a poco empiezan a llegar las primeras reacciones de las principales empresas y entidades afectadas. De esta manera, tanto Apple como Google, Microsoft, Samsung o la propia Linux Foundation han hecho en las últimas horas las primeras declaraciones sobre lo filtrado. Ninguna ha negado las informaciones de Wikileaks, y por lo general estamos viendo dos tipos de reacciones. Por una parte están los que, como Apple y Google, aseguran tener muchas de las vulnerabilidades ya solucionadas y estar trabajando ya en identificar las demás. Y por otro lado, Samsung y Microsoft prefieren mostrarse cautos por el momento diciendo que están revisando con urgencia los documentos. Y no es para menos. Apple y Google dominan el sector móvil con sus sistemas operativos, y también tienen mucho peso en los equipos de sobremesa. Samsung por su parte tiene el foco puesto sobre sus televisiones inteligentes, las que se han llevado la mayoría de titulares tras la filtración, mientras que Microsoft y la Linux Foundation tienen un papel clave con sus sistemas operativos dominantes en el ámbito doméstico y el empresarial. Apple y Google se muestran confiados Here's Apple's statement on iOS-related stuff in the WikiLeaks CIA data dump. pic.twitter.com/QiAWx8ZXpT— John Paczkowski (@JohnPaczkowski) 8 de marzo de 2017 Por una parte, Apple ha sido una de las primeras en tratar de tranquilizar a sus consumidores emitiendo un comunicado en el que apuntan a que sus análisis iniciales les han desvelado que mucho de los problemas filtrados han sido ya solucionados en las últimas versiones de iOS. Sin embargo, también dicen que seguirán trabajando para identificar y solucionar el resto de vulnerabilidades. "La tecnología que incorporan los iPhone ofrece la mayor seguridad posible para los datos de los clientes, y seguimos trabajando para de forma constante para que esto siga siendo igual. El 80% de nuestros clientes utiliza la última versión del sistema operativo, por lo que cuentan con las últimas actualizaciones de seguridad", dice el comunicado de Apple. "Nuestros informes iniciales nos indican que muchas de las vulnerabilidades que se han filtrado ya están solucionadas en la última versión de iOS, y seguimos trabajando para resolver cualquier vulnerabilidad que identifiquemos" Google ha seguido el camino marcado por Apple en su comunicado de esta madrugada. Heather Adkin, su directora de seguridad y privacidad de la información, ha asegurado que están seguros de que las últimas actualizaciones de Android y Chrome ya hayan solucionado los problemas, aunque siguen analizando los datos en busca de implementar nuevas medidas de seguridad. "Según hemos revisado los documentos, estamos seguros de que las actualizaciones de seguridad y las protecciones de Chrome y Android ya protegen a los usuarios de muchas de estas supuestas vulnerabilidades", ha dicho Adkin. "Nuestro análisis está en curso y pondremos en práctica cualquier otra protección necesaria. Siempre hemos hecho de la seguridad una prioridad absoluta y seguiremos invirtiendo en nuestras defensas" Samsung y Microsoft prefieren la cautela Por otra parte, en sus primeras declaraciones Microsoft y Samsung no se han querido mostrar tan confiados, y han preferido ser cautos asegurando que están analizando los datos de forma urgente. "Somos conscientes del informe en cuestión y estamos analizándolo con urgencia", han coincidido los portavoces de ambas empresas a la hora de emitir sus declaraciones a la BBC. Las televisiones de la serie F8000 de Samsung se han visto comprometidas con malware vía USB según ha revelado Wikileaks, el cual ha sido desarrollado conjuntamente con la agencia MI5 del Reino Unido. Por su parte Microsoft tiene los sistemas operativos de sobremesa más utilizados del mundo, y la CIA también ha creado malware para él según los documentos. Aquí hay que tener en cuenta un par de claves. En primer lugar y quizá lo más importante es que no sólo ninguna de las empresas ha dicho que los documentos sean falsos, sino que algunas de ellas han reconocido las brechas diciendo que muchas están solucionadas y que están buscando cómo solucionar las demás. También hay que ser conscientes de que muchas de las vulnerabilidades son de día cero, lo que quiere decir que la CIA tras descubrirlas no ha informado sobre ellas. Esto hará bastante difícil para los desarrolladores de los sistemas operativos identificar esos fallos que no estén bien descritos en los documentos filtrados por Wikileaks, por lo que quizá hayan hecho bien estas dos empresas mostrándose cautas. La comunidad de Linux ya está trabajando en ello La Linux Foundation también ha querido salir al paso de los acontecimientos, y lo han hecho diciendo que no les sorprende ser objetivo de la CIA por ser GNU/Linux un sistema operativo ampliamente utilizado, sobre todo en los ámbitos más profesionales. También se muestran confiados en que los ciclos de lanzamiento del Kernel sean lo suficientemente rápidos como para minimizar los tiempos a la hora de solucionar las vulnerabilidades filtradas "Linux es un proyecto de código abierto increíblemente activo. Miles de desarrolladores profesionales y voluntarios están constantemente contribuyendo con mejoras y arreglos al proyecto", ha dicho Nicko van Someren, Director de Tecnología de la Fundación Linux. "Esto permite que el equipo del kernel publique actualizaciones cada pocos días, uno de los ciclos de lanzamiento más rápidos de la industria. Los ciclos de lanzamiento rápido permiten a la comunidad de código abierto corregir las vulnerabilidades y liberar esas correcciones a los usuarios más rápidamente". El desarrollo del núcleo Linux y muchas de las distribuciones GNU/Linux no depende tanto de empresas concretas como de una comunicad, lo que ayuda a aligerar los procesos de desarrollo. En primer lugar, lo más seguro es que sea el propio equipo del Kernel, los chicos de Linus Torvalds, los que parcheen el núcleo de Linux en los próximos días según vayan identificando las vulnerabilidades. Después, esta nueva versión del Kernel irá siendo implementada en las diferentes distribuciones. La CIA también responde a las revelaciones JUST IN: CIA responds to new WikiLeaks release; claims such disclosures "jeopardize US personnel and operations" and "help our adversaries." pic.twitter.com/Fu3MKxGnkF— NBC Nightly News (@NBCNightlyNews) 8 de marzo de 2017 Por su parte, la CIA también ha emitido un comunicado defendiéndose de toda la polémica levantada por las revelaciones de Wikileaks. Dicen no tener comentarios que hacer sobre los documentos filtrados o si están llevando a cabo una investigación sobre cómo se filtraron, pero recuerdan que su misión es la de "obtener inteligencia de otros países para proteger a los Estados Unidos de terroristas, naciones hostiles y otros adversarios". También aseguran que las leyes estadounidenses les prohíben espiar a los ciudadanos, y que todas sus investigaciones "son sometidas a revisiones rigurosas para asegurar que siguen al pie de la letra las leyes nacionales y la constitución". Por último aseguran que Wikileaks intenta entorpecer su trabajo de proteger a la nación de los terroristas. "Este tipo de filtraciones no solo ponen en riesgo la integridad del personal y sus operaciones, sino que además preparan a nuestros enemigos con herramientas e información para hacernos daño.” Aunque como vemos no han querido comentar nada sobre ellos, la CNN apunta a que el FBI y la CIA están reallizando una investigación sobre las filtraciones para intentar identificar a los responsables. De momento parece que el foco lo tienen puesto sobre las empresas de seguridad que están trabajando para la CIA. En Xataka | Siete razones para desconfiar de tus dispositivos: estos son los secretos de espionaje de la CIAEn Genbeta | Por qué es peligroso para todos el espionaje de la CIA y qué tendrías que sacrificar para evitarlo También te recomendamos La mayor filtración de Wikileaks sobre la CIA: casi 9.000 documentos sobre espionaje con smart TVs, smartphones y otros Siete razones para desconfiar de tus dispositivos: estos son los secretos de espionaje de la CIA 17 imágenes espectaculares hechas con un móvil con las que aprender los mejores trucos fotográficos - La noticia Así están reaccionando las empresas afectadas por el espionaje masivo de la CIA desvelado por Wikileaks fue publicada originalmente en Xataka por Yúbal FM .

Leer más »