jueves, 28 de junio de 2012

Es desarrollado el prototipo de una cámara de 50.000 megapíxeles







Todos nos hemos quedado maravillados con smartphones como el Nokia 808 PureView y su cámara de 41 megapíxeles, otros se quedan satisfechos con la cámara de 8 megapíxeles que ofrece el iPhone 4S de Apple, pero lo que vemos en la imagen es algo que va mucho más allá. Investigadores tantos de la Universidad de Duke como de la Universidad de Arizona han estado trabajando últimamente, con ayuda de la DARPA, en el prototipo de una fenomenal cámara de nada menos que 50.000 megapíxeles, lo que da la posibilidad de tomar fotografías con una resolución fuera de lo común y que es 5 veces mejor que la vista de un ser humano.


El prototipo, básicamente, está conformado por 98 sensores sincronizados que se concentran en el mismo objetivo. Según se estima, este tipo de súper-cámaras podrían llegar al mercado en aproximadamente 5 años.

Fujitsu ScanSnap S1300i, un genial escáner portátil





Los chicos de Fujitsu están orgullosos de presentar su más reciente escáner portátil, el fenomenal Fujitsu ScanSnap S1300i, compatible con los sistemas operativos Windows y Mac y con un peso de solamente 1,4 kilogramos. Este escáner nos permite enviar documentos escaneados o fotos a dispositivos iOS y Android y también almacenarlos.


Además de ser más veloz que sus predecesores, el ScanSnap S1300i nos da la posibilidad de subir nuestro documentos y fotos escaneadas a servicios cloud tales como Dropbox, Evernote, Google Docs, SugarSync y Salesforce Chatter, entre otros.


El Fujitsu ScanSnap S1300i ya puede ser adquirido por $295 dólares.

Las Project Glass serán muy limitadas y costarán 1500 dólares







El co-fundador de Google, Sergey Brin, llegó a la conferencia Google I/O para darle al mundo dos noticias: una buena y otra mala. Primero les contaremos la buena: las gafas Project Glass estarán a la venta a comienzos del año que viene en Estados Unidos.


Ahora la mala: cada Project Glass cuesta $1500 dólares y solamente quienes hayan asistido a la conferencia I/O podrán pre-ordenarlas, así que si no estabas allí, olvídate de comprar una (aunque tal vez te encuentres con alguna en eBay).  Brin dijo que lamenta que sean tan limitadas, pero que espera puedan hacerlas llegar al resto de las personas que no asistieron a la conferencia.


Los comentarios que se hicieron sobre las Project Glass por parte de los diseñadores indican que “fueron creadas para ser parte de tu visión, pero sin obstruirla”. “Poseen un diseño asimétrico, pero balanceado” también se dijo, y de hecho pesan menos que la mayoría de las gafas de sol.


Supongo que si alguien planeaba adquirir una en cuanto estuvieran disponibles, el precio o bien la limitada disponibilidad pueden ser factores que nos lleven a no poder realizar la compra.

Un auténtico jeep que funciona a control remoto







Seguramente de pequeños todos tuvimos alguno de esos autos o pequeños vehículos radio controlados. Esos juguetes solamente sirven para chocarle los pies a nuestros familiares y para que reciban pisadas, pero el jeep radio controlado en tamaño real que ves aquí arriba no es del tipo que te gustaría hacer chocar contra ninguno de tus seres queridos.


Este gran jeep está basado en los reconocidos Tamiya Wild Willy. El estudio alemán The Bug Box, que también es un taller mecánico, ha creado este jeep gigante radiocontrolado y según dicen funciona perfectamente, aunque no hemos podido encontrar un video donde se lo vea en acción.

Motorola XT615: Características y Precio






Motorola nos deja un nuevo celular con sistema operativo Android, más precisamente la versión 2.3 Gingerbread, este es el móvil  Motorola XT615.


El XT615 llega con un diseño interesante,  y esta dirigido a los más adolescentes, digamos para la gente joven.  El diseño se ve tan lindo que parece un celular de alta gama, que sin embargo no lo es, este es un dispositivo de gama media, más abajo les dejo las características de este motorola.



Características de Motorola XT615


Este decimos que es de gama media por que trae un procesador de 800MHz Qualcomm MSM7227A, que opera junto a una memoria y 512 MB de RAM. La pantalla del celular no esta nada mal ya que llega con una pantalla de 4 pulgada FWVGA (854 x 480). Para conectarnos tampoco esta nada mal ya que nos deja una conectividad HSDPA (900/2100 MHz), Wi-Fi, Bluetooth 3.0. Por ultimo les comento que nos deja para sacar fotos una  cámara de 8MP trasera con flash LED, y otra cámara delantera del tipo VGA. Casi me olvido del almacenamiento, este trae  1 GB y soporte para tarjetas microSD.


El tamaño del Motorola XT615  es de 117,7 x 60,5 x 9,85 mm y tiene un un peso de 123,6 gramos, el Motorola XT615 tiene dos versiones de color: “. Ultra blanco” regaliz (que es otra manera de decir gris oscuro).


Este teléfono inteligente primero llega Taiwán (exclusivamente a través de Taiwán móviles) a partir de mediados de diciembre, por 10.900 dólares taiwaneses (unos US $ 360 dolares o € 265). Motorola no dijo cuando llegaría a los otros mercados.


Nuevo y revolucionario chip de memoria

Dispositivo ReRAM. (Foto: UCL/Adnan Mehonic)




El primer chip de memoria RAM resistiva basado por completo en óxido de silicio y capaz de operar a temperatura ambiente ha sido desarrollado por un equipo de investigadores del University College de Londres.


Este logro abre una puerta hacia el desarrollo de nuevas memorias de alta velocidad para ordenadores.


Los chips de memoria RAM resistiva se basan en materiales, en su mayoría óxidos de metales, que al aplicarles un voltaje cambian su resistencia eléctrica y "recuerdan" este cambio incluso después haberles retirado el voltaje.


Estos chips de memoria prometen permitir un almacenamiento de memoria significativamente mayor que el de la tecnología actual, como las memorias flash usadas en dispositivos de memoria USB, y requieren de mucho menos espacio y energía.


El equipo de Tony Kenyon y Adnan Mehonic ha desarrollado una novedosa estructura compuesta de óxido de silicio que realiza el cambio en la resistencia eléctrica de un modo mucho más eficiente que el conseguido anteriormente.


En su material, la disposición de los átomos de silicio cambia para formar filamentos de silicio dentro del óxido de silicio sólido. Dichos filamentos tienen una menor resistencia.



La presencia o ausencia de estos filamentos representa un cambio de un estado a otro.


A diferencia de otros chips de óxido de silicio actualmente en desarrollo, este chip no requiere del vacío para poder funcionar, y sería por tanto más barato y duradero.


El diseño del nuevo chip también plantea la posibilidad de desarrollar chips de memoria transparentes que puedan ser usados en pantallas táctiles y dispositivos móviles.


jueves, 21 de junio de 2012

Sky City: el edificio más alto del mundo será construido en China y en solamente 90 días






El Burj Khalifa, ubicado en Dubai, es el edificio más alto del mundo actualmente y tardó 5 años en ser construido. Ahora, una compañía china llamada BSB que se especializa en edificios prefabricados, quiere construir una enorme torre de 838 metros de altura en solamente 90 días: la Sky City. Es ilógico pensar en que un rascacielos pueda ser construido tan rápido, y más aún si va a ser el más alto del mundo.


La compañía tiene experiencia en este campo ya que construyó un hotel de 30 pisos en solamente 15 días a comienzos del año, pero el hecho de ensamblar un edificio prefabricado de más de 800 metros de altura en tres meses parece todo un desafío. De lograrse la hazaña, el Sky City sería reconocido como el edificio más alto del mundo cuando sea terminado a comienzos de 2013.


Vodafone presenta una sombrilla solar que puede recargar tu teléfono móvil





La sombrilla que estamos viendo en la imagen es una de las más recientes creaciones de Vodafone y se llama Booster Brolly. Como lo dijimos en el título, se trata de una sombrilla que cuenta con celdas solares, gracias a las cuales es capaz de absorber energía solar, la cual es convertida en electricidad y usada para recargar la batería de nuestro teléfono móvil.


La sombrilla de Vodafone es ideal para usarla en lugares como festivales, acampadas y demás, donde necesitemos protegernos del sol o de la lluvia y de paso podamos recargar nuestro móvil. Además de esto, la Booster Brolly también puede mejorar la señal de nuestro dispositivo. Su creador es el Dr. Kenneth Tong de la Universidad de Londres.


Lo que me llama la atención de todo esto es que sería poco efectiva usarla en un día de lluvia, ya que al estar nublado absorbería muy poca luz solar y por ende la recarga del móvil sería prácticamente nada.

SeaOrbiter, el buque vertical de investigación será construido muy pronto






¿Buque? ¿Barco? ¿Submarino? No es ninguno en particular, pero es todos a la vez. Eso es el SeaOrbiter, una especie de combinación entre un barco vertical y un submarino.


Durante 12 años, el SeaOrbiter ha sido un vehículo conceptual, pero ahora, en pleno 2012, parece que la tecnología podrá traerlo a la vida. Las cosas que llevan siendo conceptuales por más de diez años suelen ser: 1) poco útiles o bien 2) muy futurísticas. Aún así, el SeaOrbiter parece ser la excepción, aunque quizá en el año 2000 lo concideraban un poco futurístico.


En cualquier caso, la función que ejercerá el buque es la de un centro de investigación de la vida marina y por supuesto de los océanos. La parte sumergida, que mide unos 30 metros, será la preferida de los científicos, ya que les permitirá estudiar bien de cerca a las criaturas del mar.



El SeaOrbiter entero ha sido diseñado para usar energía solar, energía eólica y energía mareomotriz, aunque también contará con algunos depósitos de biocombustible a bordo. No hay dudas de que tecnología y ecología hacen una combinación maravillosa, ¿verdad?


Por cierto, la construcción del barco comenzará en octubre y costará $43 millones de dólares.


Sony Tablet P, Características y Precio




Existen tantos tablets diferentes hoy en día que cualquiera puede aprovecharse de ello para elegir el que más se ajusta a tus necesidades. A menos, claro está, que tus gustos te lleven a preferir algo estrafalario como dos pantallas unidas por una bisagra. Si esta es tu opción, Sony Tablet P es lo que necesitas. Su diseño es simple como pocos. La construcción en forma de concha es una reminiscencia de los viejos PDAs, como los famosos Series 5 de Psion y el Nokia Communicator, pero si lo abres encontrarás dos pantallas en lugar de una y un teclado.


Estas pantallas tienen 5,5 pulgadas de diagonal y 1.024 x 480 píxeles cada una. En muchos casos trabajan en equipo para simular una pantalla única más grande, salvo que existe un hueco de 9 mm entre ambas, y eso realmente molesta. ¿Quién quiere una banda negra en medio de una página web blanca? Tampoco las pantallas aprovechan el ancho total del chasis.


Los bordes laterales son grandes, casi 24 mm; el superior e inferior son de 12 mm. Esta gran cantidad de espacio no utilizado produce un aspecto decepcionante. Si este diseño se realizó para favorecer la portatilidad, entonces algo se hizo mal. El Tablet P, con sus 372 g, es ligero comparado con otros, pero cuando está cerrado es demasiado grande –demasiado grande para la mayoría de los bolsillos–.

Tiene un diseño interesante. Las partes curvas de la zona superior e inferior son  extraíbles. Una protege la ranura de la tarjeta SIM y la otra protege la batería (3.080 mAh) y el slot de la microSD. Sus características técnicas son buenas. Tiene un procesador de doble núcleo a 1 GHz, 1 GB de RAM y 4 GB de almacenamiento. Tiene dos cámaras, en el exterior una de 5 MP y una de resolución VGA en el interior . Sony ha instalado una versión 3.2 de Android, a la que ha dado unos ligeros retoques y ha completado con algunas apps de su propia creación, como las “stores” Music Unlimited y Video Unlimited. También tiene una buena app DLNA.



La pantalla del Sony Tablet P no es mala, al fin y al cabo. Una vez que te acostumbras empezarás a msacarle partido. Puedes, por ejemplo, escribir un mensaje en un teclado virtual situado en la pantalla inferior y ver el texto en la superior; o ejecutar juegos PlayStation para Android en la de arriba, mientras que los controles se dibujan en la de abajo. En definitiva,


no podemos decir que hayamos quedado convencidos con el sistema de doble pantalla. La proporción de la pantalla en modo completo no encaja con la mayoría de las apps: verás grandes bordes alrededor, además del hueco entre ellas. Desgraciadamente, pocas apps se aprovechan de las ventajas de este sistema. Y Sony no ha avanzado mucho más, hubiese estado muy bien que permitiera ejecutar dos aplicaciones  a la vez, cada una en una zona. Admiramos la valentía del fabricante diseñando el Tablet P, pero el resultado final no funciona.


Características Técnicas.

  • Sistema operativo: Android 3.2.
  • Procesador: NVIDIA Tegra 2 dual-core 1 GHz.
  • Memoria: 4 GB, 1 GB de RAM.
  •  Tienda de Apps: Google Play.
  • Dimensiones: 180 x 158 x 22 mm.
  •  Peso: 372 g.
  •  Tamaño de la pantalla: 2 x 5,5 pulgadas.
  •  Resolución de la pantalla: 2 x 1.024 x 480.
  • Ranura de expansión: microSD.

Precio

Su precio se inicia en los 499 euros.


Desarrollan el primer circuito químico

Un chip químico podría controlar el suministro de neurotransmisores, como la acetilcolina, para controlar músculos. (Foto: Ingemar Franzén) 




Hace algún tiempo, unos investigadores en electrónica orgánica, de la Universidad de Linkoping en Suecia, lograron desarrollar dos tipos de transistores de iones, para el transporte de iones positivos, iones negativos, y biomoléculas.


El equipo de Klas Tybrandt y Magnus Berggren, en la citada universidad sueca, ha logrado ahora combinar en circuitos complementarios ambos tipos de transistor de iones, en una configuración comparable en algunos aspectos a la típica en la electrónica convencional basada en el silicio.


Una ventaja de los circuitos químicos es que el portador de carga consiste en sustancias químicas con varias funciones. Esto significa que con esta tecnología hay nuevas oportunidades para controlar y regular las rutas de señalización de las células del cuerpo humano.


Es factible, por ejemplo, enviar señales a las sinapsis que actúan sobre células musculares, allá donde el sistema de señalización no funcione por alguna razón.


Berggren y sus colaboradores ya han comprobado que su singular chip opera bien con sustancias de señalización comunes, como por ejemplo la acetilcolina.



El desarrollo de transistores de iones, que pueden controlar y transportar iones y biomoléculas cargadas, lo iniciaron Tybrandt y Berggren hace tres años. Los transistores fueron usados entonces por investigadores del Instituto Karolinska en Suecia para controlar la administración de acetilcolina a células individuales.


Junto con Robert Forchheimer, profesor de Codificación de la Información en la Universidad de Linkoping, Tybrandt ahora ha dado el siguiente paso al desarrollar chips químicos que también contienen puertas lógicas, como las NAND, a partir de las cuales se debería poder configurar un conjunto completo de funciones lógicas.


Este asombroso planteamiento crea la base para una tecnología de circuitos completamente nueva basada en iones y moléculas en vez de en electrones y huecos.


Almacenar imágenes en un vapor

Esquema del experimento. (Foto: NIST)




El almacenamiento de mensajes codificados en luz en películas y discos compactos, y como hologramas, es usado por doquier. Y ahora se ha logrado además almacenar señales luminosas como patrones en un vapor de átomos a temperatura ambiente.


Un equipo de científicos ha almacenado dos letras del alfabeto en una diminuta celda llena de átomos de rubidio, que en esta configuración son apropiados para absorber y posteriormente reemitir mensajes según se requiera.


Ésta es la primera vez que dos imágenes son almacenadas simultánea y fiablemente en un medio no sólido y luego son reproducidas.


El nuevo proceso de almacenamiento es el resultado de unas investigaciones realizadas en el Instituto Cuántico Conjunto, una entidad dedicada a la investigación en ese campo e impulsada por la Universidad de Maryland, el Instituto Nacional de Estándares y Tecnología (NIST), y la Universidad de Harvard, las tres entidades en Estados Unidos.


El nuevo proceso de almacenamiento, desarrollado por el equipo de Paul Lett y Quentin Glorieux, podría ser útil para almacenar y procesar información cuántica.


Este medio de almacenamiento atómico es una celda estrecha de unos 20 centímetros de largo.



En las pruebas de funcionalidad del sistema, después de haber almacenado una imagen (la letra N), los físicos del Instituto Cuántico Conjunto almacenaron una segunda imagen (la letra T) antes de proceder a que el sistema leyera y mostrase ambas letras en una rápida sucesión. Los dos "fotogramas" de esta película, separados por alrededor de un microsegundo, fueron reproducidos con éxito todas las veces, aunque normalmente sólo era rescatada cerca del 8 por ciento de la luz original, un porcentaje que mejorará con el perfeccionamiento del proceso.


Uno de los grandes retos al almacenar imágenes de esta manera es evitar que las imágenes se vuelvan borrosas. Cuanto mayor sea el tiempo de almacenamiento (hasta ahora se ha llegado a unos 20 microsegundos), más se degrada la nitidez, con el resultado de una imagen borrosa.


La cámara AWARE-2 hace fotos de un gigapíxel

Óptica de la cámara de un gigapixel.  (Imagen: Universidad de Duke)




La llaman la ‘supercámara’, pero su nombre científico es AWARE2. La revista Nature presenta esta semana una tecnología capaz de tomar imágenes de un gigapíxel a una velocidad de tres fotogramas por minuto. Su calidad es 1.000 veces superior a la de las cámaras compactas convencionales de un megapíxel. Los resultados teóricos sugieren que la velocidad de la lente y su campo de visión podrían conseguir una resolución de hasta 50 gigapíxeles.


“Nuestro aparato utiliza un diseño de múltiples escalas para obtener las ventajas de lentes pequeñas en una cámara grande”, dice a SINC David Brady, investigador del Instituto de Fotónica Fitzpatrick de la Universidad de Duke (EE UU) y primer autor del estudio junto con sus colegas estadounidenses.


El planteamiento de AWARE2 es análogo al de un superordenador, que aumenta su potencia de trabajo por la unión de diferentes microprocesadores. Su sistema utiliza 98 microcámaras comprendidas en un espacio de tan solo 75x75x50 cm3, que es el volumen necesario para enfriar eficazmente los tableros de control electrónico.


Las empresas de seguridad se beneficiarán de esta tecnología por su precisión en la búsqueda y procesamiento de datos. También lo harán las compañías que se dedican a la transmisión en línea de eventos deportivos y musicales. Además, su tecnología es útil para imágenes promocionales de ciudades y objetos en el sector de la publicidad y del marketing.



De momento, el público general dispondrá de las fotografías de alta calidad de forma pasiva, a través de los medios de comunicación y de la contratación de profesionales. “A medida que mejore el proceso de fabricación de la tecnología, los fotógrafos se la podrán permitir”, dice Brady.


Actualmente, la ‘supercámara’ cuesta más de 100.000 dólares (unos 79.000 euros) por gigapíxel, pero Brady asegura que con el tiempo el coste puede bajar a la décima parte


jueves, 14 de junio de 2012

Sube por las paredes como Spiderman





Si la memoria no me falla, en el mes de julio o en agosto podremos ver en los cines una nueva película de Spiderman, conocido también como el Hombre Araña. ¿Alguna vez quisiste tener la habilidad de poder trepar por las paredes al igual que el héroe arácnido? Pues eso ya es posible, y no me refiero a dejarte picar por una araña radioactiva como en los comics de Spiderman, sino que me refiero a usar la tecnología, tal como haría Iron Man.


Un equipo de jóvenes científicos de la Universidad de Utah han creado lo que podría ser un perfecto sistema para escalar paredes. El dispositivo, conocido bajo el nombre de “ascensor vertical” o algo por el estilo, usa dos especies de almohadillas aspiradoras para lograr escalar paredes.


Los estudiantes participaron de un concurso organizado por la fuerza aérea usando este proyecto, y lograron el primer lugar entre 17 universidades en total. Es muy probable que este dispositivo sea usado en el futuro por lo militares, aunque claro tendrá que ser más pequeño, más liviano, un poco más rápido y por supuesto mucho más silencioso.


Esta máquina prepara todos los burritos que tú quieras






Los burritos no son mi comida favorita, pero sin dudas son muy ricos, y por eso hay que darle crédito a Marko Manriquez, un estudiante que ha creado a BurritoB0t, una máquina capaz de preparar todos los burritos que quieras.


BurritoB0t funciona usando la BurritoB0t App, la cual nos permite elegir la cantida de crema, salsa y guacamole que queremos ponerle a la tortilla. De todas formas, todavía será necesario que coloques la tortilla y el arroz y la cierres una vez el BurritoB0t haya hecho su trabajo, pero sin dudas la máquina hace que la tarea sea un poco menos tediosa.


A este paso, de seguro en unos cuantos años tal vez tengamos robots que cocinen para nosotros.

Fuente

Almacenan en el ADN datos digitales regrabables

Pakpoom Subsoontorn (izquierda) y Jerome Bonnet. (Imagen: Stanford U.)




Después de tres años de investigación y cientos de experimentos, un equipo de científicos ha conseguido crear un método para codificar, almacenar y borrar repetidamente datos digitales en el ADN de células vivas.


El equipo de Jerome Bonnet, Pakpoom Subsoontorn y Drew Endy, todos de la Universidad de Stanford en California, trabajó con enzimas naturales obtenidas de bacterias que fueron adaptadas para orientar secuencias específicas de ADN en un sentido o en el contrario, a voluntad y las veces deseadas.


En términos prácticos, han inventado el equivalente genético de un dígito binario o bit. Las dos orientaciones de cada secuencia son como el cero y el uno. Si la sección de ADN apunta en una dirección, representa un cero. Si apunta hacia el otro lado, representa un uno.


El almacenamiento programable de datos en el ADN de células vivas podría ser una herramienta muy eficaz para estudiar a fondo el cáncer, el envejecimiento, el desarrollo de organismos, los cambios en entornos naturales, y, por supuesto, para hacer cosas más asombrosas e inquietantes, como por ejemplo crear una computadora biológica, tema fascinante de la ciencia-ficción que acaso podría convertirse en realidad en un futuro no muy lejano.



No menos fascinante es la posibilidad de que los científicos puedan, por ejemplo, contar las veces que una célula se divide, o permitir desconectar células antes de que se vuelvan cancerosas.


Logrado este sistema de memoria bioquímica de un bit, ahora hay que llegar a los dos bits, luego a los tres, y así sucesivamente hasta lograr alcanzar 1 byte. Endy calcula que el avance en esta línea de investigación y desarrollo será ahora más fácil que en los tres primeros años, y que por eso harán progresos más deprisa. Aun así, Endy y sus colegas no creen que su sistema alcance 1 byte hasta dentro de una década


Nuevo impulso para las centrales de energía solar ubicadas en el espacio

Modelo de una central en el espacio. (Foto: U. Strathclyde)




La idea de situar en órbita a la Tierra paneles solares con una extensión tan grande como para generar electricidad y transferirla en cantidades aprovechables, no es nueva. Pero hasta ahora, había permanecido en el cajón de los proyectos utópicos o para el futuro distante.


Un reciente avance podría hacer más plausible en un futuro no muy lejano la construcción de tales centrales solares orbitales.


Unos ingenieros de la Universidad de Strathclyde en Glasgow, Escocia, Reino Unido, ya han probado, en un vuelo a la frontera del espacio, un equipamiento que podría constituir la base tecnológica para un sistema capaz de transmitir a la Tierra, mediante microondas o láseres, la energía recolectada por paneles solares ubicados en órbita.


Disponer de centrales solares en órbita, equipadas con un sistema eficiente de enviar su energía a puntos de la superficie terrestre, permitiría abastecer de energía a zonas remotas o del mundo, o a lugares asolados por catástrofes que hayan dañado temporalmente sus infraestructuras convencionales de suministro eléctrico, o simplemente a sitios demasiado agrestes como para poder instalar en ellos tales infraestructuras tradicionales de abastecimiento de electricidad.


Usando microondas o láseres, es factible enviar la energía directamente a las áreas deseadas.



Al principio, la construcción de minicentrales solares orbitales, en esencia satélites con paneles solares discretos pero equipados con el citado sistema de transmisión de energía, bastaría para generar suficiente energía para un pueblo pequeño. Pero el grupo de Massimiliano Vasile cree viable, con la tecnología en la que trabaja, alcanzar una meta más ambiciosa: lograr algún día disponer en órbita de una estructura lo bastante grande como para abastecer de electricidad a una metrópolis.


El nuevo enfoque tecnológico es huir de las estructuras convencionales y pesadas, y apostar por las de tipo inflable y ligero.


Ya existe un prototipo de concentrador solar inflable, basado en una membrana autoinflable que se puede adaptar a casi cualquier forma. La estructura está compuesta de módulos que pueden inflarse automáticamente en el vacío y cambiar su volumen con independencia unos de otros, mediante el uso de nanobombas. La estructura pesa poco, y empaquetada ocupa poco volumen. Cuando se despliega, en órbita alrededor de la Tierra, es cuando alcanza toda su extensión.


En varios aspectos, esta estructura emula a la estructura celular natural que existe en todos los seres vivos.


El control independiente de los módulos permitiría ajustar la configuración de la estructura para que sirviera, por ejemplo, de concentrador solar con el que capturar la luz solar y dirigirla hacia los paneles solares.


En un experimento reciente, se comprobó la base del concepto, mediante un cohete lanzado desde el Círculo Ártico que alcanzó la frontera del espacio.


El proyecto es parte de un estudio del Instituto de Conceptos Avanzados de la NASA. Dicho estudio lo ha estado dirigiendo John Mankins de Artemis Innovation. La Universidad de Strathclyde representa a la sección europea de un consorcio internacional que incluye a científicos estadounidenses y a un equipo japonés encabezado por Nobuyuki Kaya de la Universidad de Kobe.


Confirmado: los neutrinos respetan el límite de velocidad

Detector OPERA en el Laboratorio de Gran Sasso (Italia). (Imagen: INFN)




El director general de Investigación del Laboratorio Europeo de Física de Partículas (CERN), Sergio Bertolucci, presentó hoy en la 25 edición de la conferencia internacional sobre Física de neutrinos y Astrofísica en Kyoto (Japón), Neutrino 2012, los resultados sobre el tiempo de vuelo de los neutrinos desde el CERN hasta el laboratorio de Gran Sasso en representación de cuatro experimentos.


Se trata de Borexino, ICARUS, LVD y OPERA, que han medido un tiempo de vuelo del neutrino consistente con la velocidad de la luz. Esto está en desacuerdo con una medida que la colaboración OPERA puso a disposición de la comunidad científica para su examen en septiembre pasado, lo que indica que aquella medición se pudo deber a un elemento defectuoso del sistema de fibra óptica que mide el tiempo del experimento.


“A pesar de que este resultado no es tan emocionante como algunos hubieran deseado, es el que todos esperábamos”, dice Bertolucci. "La historia ha cautivado la imaginación del público, y ha dado la oportunidad de ver el método científico en acción: un resultado inesperado es puesto a disposición para su escrutinio, minuciosamente investigado y resuelto en parte gracias a la colaboración entre experimentos habitualmente competidores. Así es como la ciencia avanza”.


El CERN ha utilizado tecnología desarrollada en España para mejorar las medidas de la velocidad de los neutrinos del experimento OPERA. Esta tecnología se denomina White Rabbit, y es capaz de sincronizar hasta 2.000 nodos separados por más de 10 kilómetros con una precisión de un nanosegundo. Ha sido desarrollada por las empresas Integrasys y Seven Solutions, una spin-off surgida de la Universidad de Granada, así como el propio CERN y otros laboratorios.


Según Javier Serrano, responsable del proyecto White Rabbit en el CERN, este sistema “ha sido crucial al menos en OPERA e ICARUS”, otro experimento situado en el Laboratorio Subterráneo de Gran Sasso. Serrano explica que White Rabbit actúa como esquema independiente que se instala en paralelo con el sistema anterior, lo que permite detectar posibles errores. Así, White Rabbit se ha utilizado para garantizar la redundancia del antiguo enlace de sincronización en OPERA (que tuvo el problema de conexión), así como para caracterizar uno de los osciladores OCXO que controla la frecuencia en transmisiones “que, según se descubrió a principios de 2012, no estaba en su frecuencia nominal”.



En ICARUS, que en marzo pasado obtuvo una medida de la velocidad de los neutrinos emitidos desde el CERN hasta Gran Sasso consistente con la velocidad de la luz, White Rabbit se ha utilizado para mejorar la redundancia del antiguo enlace de sincronización, lo cual, afirma Serrano, “permitió afinar las calibraciones de ambos sistemas mediante correlaciones antes del inicio del experimento”.


Además de mejorar la redundancia en la sincronización de los tiempos de emisión y detección de neutrinos, otro aspecto que Javier Serrano destaca de la inclusión de White Rabbit al sistema es la “transparencia completa”. “Hemos publicado los datos día a día en Internet para todo el mundo, lo que ha permitido identificar problemas y resolverlos a tiempo para que White Rabbit pudiera hacer estas aportaciones”. El soporte hardware del sistema, y en particular el switch White Rabbit y los nodos en formato PCIe, es completamente abierto, y los diseños se han publicado bajo la licencia de hardware abierto del CERN.


Otros experimentos ubicados en Gran Sasso como Borexino y LVD también aplicarán el sistema White Rabbit. Asimismo, este sistema se ha usado en el CERN para corroborar los resultados del año pasado relacionados con OPERA, donde aseguró la redundancia del antiguo enlace de sincronización (entre el receptor GPS y la extracción en el punto 4 del SPS) y supuso una mejora de la incertidumbre.


Además de los experimentos en Gran Sasso y el CERN, otros laboratorios y experimentos de física de partículas del mundo aplicarán la tecnología White Rabbit: los alemanes DESY y GSI, especializados en física nuclear; el futuro observatorio internacional de rayos gamma CTA (del que España aspira a albergar su sede en el hemisferio Norte) o el telescopio de neutrinos KM3NET, son algunos de los interesados. La participación española en estos proyectos se promueve de forma coordinada desde el Centro Nacional de Física de Partículas, Astropartículas y Nuclear (CPAN).


jueves, 7 de junio de 2012

Asus Taichi, nueva notebook con pantalla interior y exterior





En pleno Computex 2012, Asus ha presentado una de sus últimas creaciones, una genial notebook de la cual la compañía se siente muy orgullosa: la Asus Taichi, que cuenta con una pantalla exterior y una interior.


Ambas son pantallas LCD de alta definición (Full HD), midiendo la interior 13,3 pulgadas, mientras que la exterior mide 11,6 pulgadas, y lo mejor es que ambas se pueden usar en forma simultánea si así lo queremos.


Por dentro, se ha revelado que la Asus Taichi lleva un poderoso procesador Intel Core i7 de tercera generación, mientras que en el lado de afuera, además de las evidentes pantallas, nos encontramos con dos cámaras.


Asus ha dicho que podemos usar las pantallas en forma independiente si lo deseamos, y además la exterior es una pantalla touch, por lo que podemos usar la notebook como si fuera un tablet. Cabe destacar también que las dos pantallas cuentan con sus propias interfaces de Windows 8.


Esperemos verla en el mercado en algunos meses.

Sony Wonderbook, libros de cuentos con realidad aumentada






Actualmente la gran mayoría de las personas leen dos clases de libros: libros comunes de papel, o bien los conocidos e-books, también llamados libros electrónicos. Pero ahora existen los libros con realidad aumentada y fueron creados por Sony.


Durante su presentación en el E3 2012, Sony captó la atención de todos con algo que no tenía relación con los videojuegos. Estamos hablando de Wonderbook, los primeros libros con realidad aumentada, y se trata de libros de cuentos, los cuales obviamente son muy queridos por los niños. Para poder interactuar con el libro, es necesario disponer de la tecnología del PlayStation Eye y el PlayStation Move.


La primera persona en trabajar junto a Sony con estos libros no ha sido otra que J.K. Rowling, escritora de la saga de Harry Potter. Por tal motivo no parece extraño que el primer libro Wonderbook se llame “Book of spells” o sea un “libro de hechizos”. Usando los controles del PS Move, seremos capaces de lanzar hechizos a las “páginas” del libro para ser testigos de la realidad aumentada.


Por supuesto que los Sony Wonderbook están orientados para los más jóvenes y se pondrán a la venta entre septiembre y octubre aproximadamente.


Nokia 306 Asha y sus características






Nokia presenta el nuevo 306 Asha, luego de presentar el Asha 305.
Nokia nos deja la nueva línea de modelos de Asha, este llega como la gama Touch Asha. Como el nombre TOUCH indica estos son celulares que incluyen en sus características principal es una pantalla táctil y serán operados bajo el funcionamiento un Asha Touch UI, cada uno con una pantalla de 3 pulgadas. La gama incluye los 305 Asha, 306 Asha y Asha 311. Ahora paso a comentarles que trae el Nokia Asha 306.



El Nokia Asha 306  es el hermano Asha 305 pero este no cuenta con dos chips, pero si nos deja más opciones de conectividad donde la que destacamos es WIFI. En sus características hay que destacar que el celular nos deja una aceptable y brillante  pantalla pantalla de 3 pulgadas  la cual soporta una resolucion resolución QWVGA, soporta una resolución de 400 x 240 píxeles y es de tecnología LCD.


El nokia 306 tiene la capacida de soportar cuatro bandas (850/900/1800/1900), además podremos conectarnos a Internet mediate GPRS y WIFI. El sistema operativo es un Symbian Serie 4.0 DP 2.0, el cual además integra varios servicios de Nokia.  La memoria del celular es de 10 megas y tiene la posibilidad de ser ampliado mediante micro SD, tiene además una cámara de 2 megapíxeles con enfoque completo, sin flash LED, las fotos las saca en 1600 x 1200 píxeles máximo y puede grabar vídeo en 176 x 144 píxeles a 10 fotogramas por segundo.


En cuanto a su tamaño, hay que decir que es modesto, mide 110,3 x 53,8 x 12,8 mm y tiene un peso de  96 gr. Para finalizar les comento que la batería  es 1110 mAh (BL-4) la cual soporta unas 600 horas de tiempo de espera, 14 horas de tiempo de conversación


¿Ver a través de las paredes mediante teléfonos móviles?

Dr. Kenneth O y Dae Yeon Kim. (Foto: UTD)




Acercando la ciencia-ficción a la realidad, el diseño de un asombroso chip instalable en teléfonos móviles podría hacer que estos se convirtieran en dispositivos para ver a través de paredes, así como de tabiques de madera y objetos de plástico, de papel y de otros materiales.


El equipo de Kenneth O, de la Universidad de Texas en Dallas, combinó dos avances científicos. Uno consiste en una forma de aprovechar una banda no utilizada en el espectro electromagnético. El otro es una nueva tecnología de microchip.


El espectro electromagnético comprende diferentes longitudes de onda. Por ejemplo, las ondas de radio para las frecuencias AM y FM, las microondas utilizadas por los teléfonos móviles o la banda infrarroja de la que se valen los dispositivos de visión nocturna.


Pero la banda del terahercio, en el espectro electromagnético, una banda de longitudes de onda ubicada entre la franja de las microondas y la infrarroja, no ha sido aprovechable para la mayoría de los dispositivos comunes.


Utilizando el nuevo método, es factible generar imágenes a partir de señales que operen en el rango del terahercio sin tener que utilizar varias lentes dentro de un dispositivo. Esto podría reducir el costo y el tamaño de un aparato basado en esta estrategia.


El segundo avance en la combinación usada para la estrategia de  la Universidad de Texas es la tecnología utilizada para crear el microchip. Del modo en que se ha hecho la adaptación, el chip resultante podrá ser instalado en la parte posterior de un teléfono móvil, convirtiéndolo en un dispositivo de bolsillo que permita ver a través de objetos. Para evitar el obvio riesgo de que cualquier desaprensivo se valga de uno de estos teléfonos móviles para espiar a otras personas a través de las paredes, los investigadores han orientado el diseño de su sistema para que sólo sea posible usarlo a una distancia no mayor de 10 centímetros.



Las aplicaciones  potenciales de esta tecnología son muchas, desde localizar conductos, desperfectos u otras cosas dentro de las paredes, hasta la autentificación de documentos importantes. En tiendas y otros establecimientos, serviría para detectar billetes falsos. En fábricas, serviría para el control de calidad de los productos. También hay más canales de comunicación disponibles en la banda del terahercio que en la banda utilizada actualmente para comunicaciones inalámbricas, por lo que la información podría circular con más rapidez en esta frecuencia.


La banda del terahercio también puede ser usada para detectar tumores cancerosos mediante imágenes, diagnosticar enfermedades a través del análisis del aliento y monitorizar la toxicidad del aire.


El siguiente paso que planea dar el equipo de investigación es construir un sistema completo de obtención y procesamiento de imágenes basado en esta tecnología.


En este proyecto también han trabajado Dae Yeon Kim, Ruonan Han, Yaming Zhang, Yongwan Kim y Hisashi Sam Shichijio.


Cultivo de Células Madre permite la reparación ósea

Célula de piel. (Foto: U. Michigan)




Investigadores de la Universidad de Michigan en Estados Unidos han demostrado que en una superficie especial, libre de contaminantes biológicos, se permite el desarrollo de células madre derivadas de adultos y su transformación en multiples tipos de células. El éxito acerca a las terapias con células madre aún más.


Para probar los poderes regenerativos de las células, las células óseas cultivadas en esa superficie fueron transplantadas en agujeros en los cráneos de ratones, produciendo cuatro veces más crecimiento de huesos que en los ratones sin las células óseas adicionales.


Las células de un embrión pueden ser realmente lo que quieran cuando son adultas: órganos, nervios, piel, hueso, cualquier tipo de célula humana. Las células madre "inducidas" derivadas de adultos pueden hacer esto y mejor, porque las células de origen que provienen del paciente son perfectamente compatibles para tratamientos médicos.


Pablo Krebsbach, Profesor de Ciencias Biológicas y Materiales en la Escuela de Odontología de la Universidad de Michigan, UM, explica el proceso: "De algún modo, hemos retrocedido el reloj. Estamos tomando una célula especializada adulta y la reprogramamos genéticamente, para que se comporte como una célula más primitiva".


En concreto, transforman células humanas de piel en células madre. A menos de cinco años del descubrimniento de este método, los investigadores aún no saben exactamente cómo funciona, pero el proceso implica la adición de proteínas que pueden activar y desactivar genes en las células adultas.


Antes de que las células madre puedan ser utilizadas para realizar reparaciones en el cuerpo, deben ser cultivadas y dirigidas a convertirse en el tipo de célula deseada. Los investigadores generalmente utilizan superficies de células y proteínas animales para los hábitat de células madre, pero estos genes son caros de producir y los lotes varían dependiendo del animal individual.


"No se sabe muy bien lo que hay allí". dijo Joerg Lahann, Profesor asociado de Ingeniería Química y de Ingeniería Biomédica.


Por ejemplo, las células humanas se cultivan a menudo sobre células de ratón, pero pueden hacerse un poco nativas, comenzando a producir algunas proteínas de ratón, lo cual puede invitar a un ataque por el sistema inmunológico del paciente.


El gel polímero creado por Lahann y sus colegas en el año 2010 evita estos problemas porque los investigadores son capaces de controlar todos los ingredientes del gel y cómo se combinan.



"Básicamente es la facilidad de un plato de plástico" dijo Lahann. "No hay contaminación biológica que pueda influir en sus células madre humanas".


Lahann y sus colegas han demostrado que estas superficies podrían cultivar células madre embrionarias. Ahora, Lahann se ha asociado con el equipo de Krebsbach para demostrar que la superficie polímera también puede apoyar el crecimiento de células madre inducidas que son médicamente más prometedoras, manteniéndolas en su estado de mayor potencial. Para demostrar que las células se pueden transformar en distintos tipos, el equipo las transformó en células de grasa, cartílago y óseas.


Luego, probaron si estas células podrían ayudar al cuerpo a hacer reparaciones. Específicamente, intentaron reparar agujeros de cinco milímetros en los cráneos de los ratones. Los sistemas inmunológicos débiles de los ratones no atacaron las células óseas humanas, permitiendo a las células ayudar a llenar el agujero.


Después de ocho semanas, los ratones que habían recibido las células óseas tenían 4,2 veces más cantidad de hueso nuevo. El equipo pudo demostrar que el crecimiento adicional de hueso provenía de las células añadidas, ya que era hueso humano.


"El concepto no es específico del hueso," dijo Krebsbach. "Si realmente desarrollamos maneras de cultivar estas células sin productos de ratones o animales, al final, otros científicos alrededor del mundo pueden generar su tejido de interés".


En el futuro, el equipo de Lahann quiere explorar usar el gel para hacer crecer células madre y células especializadas en distintas formas físicas, como una estructura similar al hueso o una microfibra similar a los nervios.


El artículo "Derivation of Mesenchymal Stem Cells from Human Induced Pluripotent Stem Cells Cultured on Synthetic Substrates" aparece en la edición de Junio de la publicación Stem Cells.


Krebsbach es Profesor de Odontología H. Roberts y profesor de Ingenería Biomédica. Lahann es también profesor asociado de Ciencias de Materiales e Ingeniería, profesor asociado de Ciencias Macromoleculares e Ingeniería y Director del Instituto Biointerfaces.


Reconstruyen el genoma de un feto humano a partir del ADN de sus futuros padres

La técnica reconstruye el genoma completo de un feto humano de forma no invasiva. (Imagen: Shendure Lab)




Científicos estadounidenses han reconstruido el genoma completo de un feto humano a partir de las muestras de ADN de los futuros padres. La técnica prenatal, publicada esta semana en Science Translational Medicine, se postula como una prueba de detección de enfermedades congénitas no invasiva a las 18 semanas y media.


Aproximadamente el 13% del ADN circulante en la sangre materna es de origen fetal. Aunque su concentración varía de una mujer a otra, los expertos liderados por Jacob O. Kitzman, investigador de la Universidad de Washington (EE UU), demostraron su potencial en el diagnóstico prenatal al combinarlo con los millones de variantes genéticas de la embarazada (haplotipo) y la secuenciación del genoma del futuro padre.



Uno de los mayores retos fue predecir qué variantes genéticas se transmitirían de madre a hijo, ya que la mayor parte del material genético del plasma deriva de la madre y no del feto. Otro de los inconvenientes fue identificar las nuevas mutaciones en el genoma del feto.


Los investigadores dejan constancia de la necesidad de mejorar este método, que en 2010 ya había mostrado su potencial predictivo a partir del ADN circulante en el plasma de la mujer embarazada. Aun así, aseguran que su hallazgo podría servir para obtener un mapa prenatal integral de los trastornos mendelianos en “un futuro próximo”.


Se conocen más de 3.000 enfermedades genéticas con un patrón de herencia claro que afectan al 1% de los nacimientos. Una de ellas es el síndrome de Down, que responde a un trastorno genético por una copia extra del cromosoma 21.


Estos desórdenes, transmitidos por herencia según las leyes de Mendel, se detectan mediante dos pruebas prenatales invasivas, que solo se realizan si el médico sospecha de alguna anomalía cromosómica.


La primera se hace con un pequeño trozo de tejido del útero que se consigue vía vaginal o abdominal y se conoce como muestra de vellosidades coriónicas. La otra es la amniocentesis a través de vía vaginal. Durante el segundo trimestre del embarazo se extrae el líquido amniótico que rodea al feto.


El clima de la Tierra podría alcanzar un punto de no retorno

Derretimiento de la capa de hielo de Groenlandia. (Imagen: Kenyai)




La revista científica Nature publica esta semana un artículo, que advierte del posible cambio del estado planetario actual. Según las conclusiones, la posibilidad de alcanzar un punto de no retorno de la situación se debe al consumo de combustibles fósiles y a la alta tasa de crecimiento de la población mundial.


El impacto del conjunto de alteraciones que está sufriendo el planeta es mayor que la suma individual de cada una de esas alteraciones.


Jordi Bascompte, investigador de la Estación Biológica de Doñana del CSIC y coautor del trabajo, dice que “estos cambios parecen involucrar alteraciones en la química de la atmósfera y los océanos, y grandes trastornos en los flujos de energía desde el principio hasta el final de la cadena alimentaria”.


El incremento de la población está asociado a un mayor consumo de recursos y energía, y a la transformación y fragmentación del paisaje que alteran las condiciones atmosféricas, oceánicas y terrestres que, a su vez, amenaza la supervivencia de la biodiversidad actual.


El trabajo también señala aspectos como una pérdida de la productividad en las tierras de cultivo, una menor capacidad de almacenamiento de CO2 y el colapso del stock pesquero.


Eloy Revilla,  investigador de la Estación Biológica de Doñana y otro de los autores del trabajo, considera que “incluso las áreas inalteradas del planeta sufrirán las consecuencias si estos impactos directos superan el 50%”. Según el artículo, si la tasa de incremento de la población se mantiene y también lo hace el nivel de consumo de recursos, este porcentaje será alcanzado hacia 2025 y llegará al 55% en 2045.


Para minimizar estos posibles impactos y no superar la barrera del 50%, el estudio propone las siguientes medidas: reducir la tasa de crecimiento anual de la población y su consumo de recursos asociado, sustituir el mayor nivel energético posible por fuentes renovables, aumentar la eficiencia en la producción de alimentos y mejorar la gestión de las zonas de la Tierra que aún no han sido dominadas por humanos.


Según el artículo, la humanidad está en una encrucijada crítica en la que debe decidir si quiere guiar los cambios del planeta o simplemente dejar que las cosas sucedan. Según Revilla: “esos porcentajes deberían preocuparnos muy seriamente”.


A lo largo de la historia, la Tierra ha vivido cinco grandes episodios de extinciones masivas asociados a cambios climáticos que han modificado las características de todo el planeta. Estas épocas de transición solo representan un 5% de la historia del planeta, mientras que el resto del tiempo se ha mantenido estable.  


El último gran cambio tuvo lugar hace unos 14.000 años, cuando el 30% de la superficie terrestre perdió la capa de hielo que la cubrió durante el último periodo glacial. La última edad de hielo había durado unos 100.000 años, mientras que el periodo de transición se alargó unos 3.300 años. Desde entonces, el planeta ha mantenido unas características más o menos estables hasta la aparición y el desarrollo de la civilización humana.



Actualmente, la tasa de crecimiento anual de la población es de unos 77 millones de personas, casi 1.000 veces superior que la experimentada hace entre 10.000 años y 400 años, cuando se situaba en unas 67.000 personas. El estudio destaca que el incremento de la población ha traído consigo la transformación del 43% de la superficie terrestre en áreas urbanas y agrícolas.


Del mismo modo, los humanos gobiernan el uso de hasta el 40% de la producción primaria mundial, lo que limita el acceso de otras especies a este recurso. A su vez, el consumo de combustibles fósiles ha supuesto un aumento de la concentración de CO2 atmosférico de un 35% y ha provocado un descenso del 0,05 en el pH oceánico