domingo, 18 de enero de 2015

Ocho asteroides con potencial peligro para la Tierra descubiertos en 2014

En total, la misión NEOWISE ha hallado 40 objetos cercanos a nuestro planeta

NEOWISE

El cometa C/2013 UQ4 (Catalina), fotografiado por la misión NEOWISE

La misión NEOWISE de la NASA ha descubierto y caracterizado 40 objetos cercanos a la Tierra (NEOs) en su primer año de funcionamiento. Ocho de ellos han sido clasificados como asteroides potencialmente peligrosos (PHA), en función de su tamaño y lo cerca que sus órbitas podrían llegar a la órbita de la Tierra.

La misión ha caracterizado igualmente 245 objetos cercanos a la Tierra previamente conocidos. De diciembre 2013 a diciembre 2014, NEOWISE (Near-Earth Object Wide-field Survey Explorer) descubrió tres nuevoscometas y observó otros 32. Uno de ellos se ha convertido en el cometa más brillante en el cielo nocturno de la Tierra a principios de 2015, el cometa C/2014 Q2 (Lovejoy).

NEOWISE siempre mira en el cielo del amanecer y del crepúsculo - la dirección perpendicular a la línea entre la Tierra y el Sol. Este punto de vista único hace que le sea fácil detectar NEOs que se interponen cerca de la Tierra.

Originalmente llamado Wide-field Infrared Survey Explorer (WISE), la nave espacial se colocó en estado de hibernación en 2011 después de completar su misión principal. En septiembre de 2013 se reactivó, se renombró como NEOWISE y se le asigna una nueva misión para ayudar a los esfuerzos de la NASA para identificar la población de objetos cercanos a la Tierra potencialmente peligrosos. NEOWISE también está caracterizando asteroides y cometas conocidos previamente para proporcionar información sobre sus tamaños y composiciones.

NEOWISE es un telescopio espacial que explora los cielos en busca de asteroides y cometas. El telescopio ve la luz infrarroja, lo que le permite recoger la firma de calor de asteroides y obtener mejores estimaciones de sus verdaderas dimensiones.

Como resultado, NEOWISE puede verasteroides oscuros que son más difíciles de encontrar para las encuestas de luz visible. Casi todos los descubrimientos de NEOWISE han sido de objetos de cientos de metros de ancho y muy oscuros. Cuando los datos infrarrojos del NEOWISE se combinan con un telescopio óptico de luz visible, esto ayuda a los científicos a entender la composición del objeto.

Tus ojos jamás verían esto: así se colorean las fotos astronómicas

La mayoría de las cámaras que utilizan los astrónomos funcionan en blanco y negro

Las fotos en color son el resultado de mezclar varias imágenes con programas como Photoshop

Una de las herramientas que más ha contribuido en las últimas décadas al avance de la Astronomía y el conocimiento del Universo es el telescopio espacial Hubble. Puesto en órbita en 1990, su historia no ha estado exenta de serios problemas técnicos que, afortunadamente, se han ido solventando con éxito.

Gracias a su espejo de 2,4 metros de diámetro, que actúa como un inmenso ojo que permite captar la luz procedente incluso de los objetos más lejanos y tenues, y al no verse afectado por las limitaciones técnicas que la atmósfera impone a los telescopios que operan desde tierra, Hubble nos ha permitido conseguir imágenes con una claridad jamás lograda. La imagen más icónica obtenida por este telescopio espacial es la de los denominados Pilares de la Creación, tomada en 1995. Este es el nombre con el que se ha bautizado a una zona de la Nebulosa del Águila, situada en la constelación de la Serpiente y a una distancia de la Tierra de casi 7.000 años luz (unos 66.000 billones de kilómetros).

Los Pilares de la Creación, fotografiados por el telescopio espacial Hubble en 1995 (derecha) y en 2005 (izquierda). Jeff Hester y Paul Scowen (Arizona State University). NASA/ESA.

Los tres pilares que aparecen en la fotografía son unas enormes columnas de gas y polvo que, al colapsar bajo la acción de su propia gravedad, están dando lugar a nuevos soles. Y, aunque se conocen otras muchas regiones del espacio en las que está teniendo lugar este mismo proceso de nacimiento de estrellas, la de los Pilares de la Creación es la imagen más impresionante e impactante que se ha tomado de una zona de este tipo. De hecho, ha aparecido en películas como Contact, en series de televisión como Star Trek y Babilon 5 y en algunos videojuegos. Pero, al margen de su fascinante belleza, esta imagen ha contribuido significativamente a mejorar nuestro conocimiento sobre cómo tiene lugar la formación de estrellas.

Hace unas semanas, 20 años después y como tributo a esa impresionante imagen, la NASA y la Agencia Espacial Europea (ESA) han tomado y hecho públicas nuevas imágenes de los Pilares de la Creación.

Las nuevas imágenes muestran con mucho mayor detalle las estructuras que aparecían en la fotografía inicial y han sido obtenidas con una nueva cámara denominada Wide Field Camera 3 (WFC3), instalada en el Hubble en mayo de 2009. Esta cámara sustituyó a la que obtuvo la imagen de 1995 y que se denominaba Wide Field and Planetary Camera 2 (WFPC2).

Imagen de la cámara WFC3 mientras estaba siendo preparada para ser cargada en el transbordador espacial Atlantis, que la llevaría hasta el telescopio espacial Hubble en mayo de 2009. NASA

Pero, ¿cómo se han obtenido estas imágenes? Y, por otra parte, ¿realmente reproducen fielmente lo que vería el ojo humano si pudiese contemplar por sí mismo estas estructuras? Para dar una respuesta a estas preguntas es necesario aclarar que la cámara WFC3 utiliza tres sensores diferentes para poder traducir en imágenes la luz que les llega. Éstos se denominan sensores CCD, acrónimo de charge-coupled device (dispositivo de carga acoplada).

Se trata de dispositivos sensibles a la luz que fueron inventados en el año 1969 y que décadas después cambiarían radicalmente el mundo de la fotografía. La tecnología CCD, que hizo a sus inventores merecedores delPremio Nobel de Física en el año 2009, ha supuesto toda una revolución, pues dejó obsoleta a la emulsión fotográfica y permitió dar el gran salto a la fotografía digital. Hoy en día estos sensores están presentes en cámaras fotográficas y de vídeo, así como entabletssmartphones y otros dispositivos de uso común.

Al disponer de tres de estos sensores CCD, la cámara WFC3 del telescopio Hubble puede considerarse realmente como una combinación de dos cámaras en una sola. Así, dos de los sensores funcionan con luz visible y ultravioleta (UVIS), mientras que el tercero es sensible a la luz infrarroja (IR). En el momento de adquirir una imagen, un operador decide a cuál de los dos canales disponibles (ultravioleta-visible o infrarrojo) irá la luz recogida por el espejo del telescopio espacial. Cada uno de ellos proporcionará una información diferente, aunque complementaria, del mismo objeto.

Empezando por los dos sensores que operan con luz visible y ultravioleta, cabe destacar que cada uno de éstos proporciona una resolución de 2048x4096 píxeles. Y, contrariamente a lo que de entrada se podría pensar, funcionan en blanco y negro, y no en color. De hecho, aunque parezca sorprendente, esto no sólo ocurre con la cámara del telescopio Hubble: la inmensa mayoría de las cámaras que utilizan los astrónomos funcionan en blanco y negro. De esta forma se consigue un aprovechamiento más óptimo de los sensores a la vez que se obtienen imágenes con mayor detalle y se pueden registrar con mayor facilidad los objetos más tenues.

Entonces, ¿cómo es posible que Hubble pueda obtener imágenes en color? Una imagen en color puede componerse mediante la mezcla de tres colores primarios: rojo, verde y azul. Combinando rojo, verde y azul en distintas intensidades podemos obtener una enorme gama de colores y, por ejemplo, en la pantalla de cualquier dispositivo electrónico el estado de cada píxel se define mediante la intensidad de estos tres colores individuales. Para poder aplicar este principio y obtener una imagen en color, la cámara WFC3 del Hubble utiliza un conjunto de 63 filtros que se van colocando, según convenga, frente a los sensores UVIS. Cada uno de estos filtros está diseñado para dejar pasar sólo un color determinado, bloqueando al resto.

Un filtro de un determinado color sólo deja pasar aquella luz que es de su mismo color. El resto de colores que componen la luz incidente son rechazados. NASA

Si, por ejemplo, se coloca un filtro de color rojo, al sensor sólo llegará la luz de ese color y se obtendrá (en blanco y negro) una imagen del objeto en la que se habrá conseguido aislar este color primario. Si se repite lo mismo con otros dos filtros diferentes para aislar los canales azul y verde, se dispondrá entonces de los tres canales primarios, cada uno de los cuales estará registrado en una imagen en blanco y negro. Al combinar los tres canales, se obtendrá una imagen en color. Esta combinación se hace mediante software. Aunque los astrónomos utilizan programas específicos parallevarla a cabo, aplicaciones de uso general como por ejemplo Photoshoppermiten también utilizar esta técnica.

Pero para entender qué es lo que realmente ocurre con las imágenes del Hubble es importante tener en mente que esta combinación se hace con tres imágenes en blanco y negro, a cada una de las cuales les hemos puesto la etiqueta de “rojo”, “verde” y “azul”.

Este esquema muestra cómo, mediante un sensor CCD que obtiene imágenes en blanco y negro, pueden aislarse los canales rojo, verde y azul utilizando filtros de esos mismos colores. NASA/ESA

¿Qué ocurriría entonces si una de estas imágenes se obtiene con un filtro de un color diferente al color primario que representa? ¿Y si, por ejemplo, la imagen del canal rojo se obtiene con un filtro violeta? Pues que al combinarlas en nuestro software como si se tratase de rojo, verde y azul, obtendríamos también una imagen en color, si bien el resultado no se correspondería con lo que ve el ojo humano.

La peculiaridad del Hubble es que los canales rojo, verde y azul se obtienen con filtros que no se corresponden realmente con estos colores primarios. Es decir, lo que vemos en las imágenes del Hubble no coincide con lo que veríamos si pudiésemos viajar con una nave espacial hasta las proximidades de la nebulosa y mirarla con nuestros propios ojos. Para obtener el canal rojo se utiliza un filtro denominado S II (leído azufre dos), que sí es de color rojo. Pero para el canal verde se usa un filtro conocido como filtro H-alpha (hidrógeno alfa), que en lugar de ser verde es de un tono de rojo diferente al del filtro S II. Y para obtener el canal azul se utiliza un filtro O III (oxígeno tres), que es de color verde.

Figura 5. Esquema de la técnica de combinación de imágenes obtenidas con filtros S II, O III y H Alpha para obtener imágenes astronómicas en color a partir de un sensor CCD en blanco y negro. NASA/ESA

El motivo de hacerlo de esta manera, que para alguien ajeno a esta materia puede parecer extraña e ilógica, es que estos tres filtros especiales se corresponden con tres colores básicos (o, dicho en lenguaje técnico, tres longitudes de onda del espectro visible) que tienen una enorme importancia desde el punto de vista astrofísico. Esta reasignación de colores permite aislar colores característicos de la luz que emiten tres de los elementos químicos fundamentales que se encuentran en esta nebulosa y en otros objetos de interés astrofísico (el hidrógeno, el azufre y el oxígeno). Así se aumenta notablemente el nivel de detalle de algunas de las estructuras que aparecen en las imágenes, algo que no se conseguiría si se utilizasen filtros estándar de colores rojo, verde y azul.

A pesar del grado de detalle que muestran las imágenes obtenidas con los sensores UVIS de la cámara WFC3, éstos no nos permiten ver qué hay en el interior de las columnas de gas y polvo cósmico, pues ese polvo bloquea la mayor parte de la luz visible que emiten los objetos que se encuentran dentro de losPilares. Pero, por suerte, este polvo no es muy eficaz a la hora de bloquear la luz infrarroja. Y es aquí donde el tercer sensor de la cámara WFC3, que tiene una resolución de 1024x1024 píxeles, juega un papel clave. A diferencia de lo que ocurre con el ojo humano, que no puede ver este tipo de luz, el sensor infrarrojo de la WFC3 está específicamente diseñado para detectarla, mostrándonos así imágenes de objetos que de otra forma no podríamos contemplar.

El resultado bruto obtenido por este sensor es también una imagen en blanco y negro. Pero siguiendo el mismo esquema que el utilizado con los sensores UVIS, mediante filtros podemos generar una imagen en color. Para este sensor la cámara WFC3 dispone de 17 filtros diferentes.

Figura 6. Filtros utilizados por la cámara WFC3 para obtener imágenes con el sensor infrarrojo. Los filtros se encuentran montados sobre una rueda giratoria que permite posicionar un filtro particular frente al sensor. NASA/STScI

En este caso no son filtros de tipo visible, sino filtros que permiten el paso de los infrarrojos. Por decirlo de alguna manera, cada filtro deja pasar a su través una “tonalidad” de infrarrojo diferente. Combinando as imágenes tomadas a través de dos filtros distintos en banda infrarroja es como se obtiene una imagen en falso color con la que podemos interpretar mejor qué es lo que estamos viendo.

Imagen de los Pilares de la Creación en luz infrarroja publicada en 2015.NASA, ESA/Hubble

El resultado obtenido al aplicar esta técnica a los Pilares de la Creación puede verse en la espectacular esta espectacular imagen. Se trata de una visión de los Pilares mucho más desconocida, en la que las columnas de gas y polvo aparecen como una tenue silueta sobre un fondo salpicado de estrellas, algunas de las cuales acaban de nacer en el interior de esa estructura.

La diferencia entre lo que permite mostrar la luz visible y la luz infrarroja queda muy patente en este video producido por la NASA y por la Agencia Espacial Europea. En él se hace una transición suave entre la imagen obtenida con luz visible y la obtenida con luz infrarroja:

Comparando detalladamente las imágenes tomadas con luz visible en 1995 y 2005, los astrónomos podrán aprender mucho sobre cómo evolucionan con el tiempo las columnas de gas y polvo que forman estos Pilares de la Creación. Sabemos que nuestro propio Sol, hace miles de millones de años, nació junto con otras estrellas en el interior de una nebulosa de este tipo. Por tanto, el estudio de los Pilares de la Creación nos aporta también claves sobre nuestros propios orígenes.

De esta manera, gracias a una íntima combinación de ciencia y arte, las técnicas sofisticadas que se esconden tras las imágenes del Hubble nos permiten contemplar toda la belleza que encierran estos objetos, a la vez que nos permiten profundizar cada vez más en la comprensión de nuestro Universo.

En este otro vídeo de 2011 puedes ver un ejemplo de cómo se colorea una imagen astronómica del Hubble:

El reto de las máquinas pensantes


El robot HAL en '2001: Una Odisea del espacio', de Kubrick, un icono de la inteligencia artificial.

"¿Qué piensa usted sobre las máquinas que piensan?" Ésta es la pregunta que la revista digital Edge ha lanzado, como todos los años por estas fechas, a algunas de las mentes más brillantes del planeta. Hace poco más de un mes, a principios de diciembre, Stephen Hawkingalertó sobre las consecuencias potencialmente apocalípticas de la inteligencia artificial, que en su opinión podría llegar a provocar "el fin de la especie humana". Pero, ¿realmente debemos temer el peligro de un futuro ejército de humanoides fuera de control? ¿O más bien deberíamos celebrar las extraordinarias oportunidades que podría brindarnos el desarrollo de máquinas pensantes, e incluso sintientes? Semejantes seres, además, nos plantearían nuevos dilemas éticos. ¿Formarían parte de nuestra "sociedad"? ¿Deberíamos concederles derechos civiles? ¿Sentiríamos empatía por ellos? Un año más, algunos de los pensadores y científicos más relevantes del mundo han aceptado el reto intelectual planteado por el editor de Edge, John Brockman. Ésta es tan sólo una selección de algunas de las respuestas más interesantes.

Nick Bostrom. Director del Instituto para el Futuro de la Humanidad de Oxford:

Creo que, en general, la gente se precipita al dar su opinión sobre este tema, que es extremadamente complicado. Hay una tendencia a adaptar cualquier idea nueva y compleja para que se amolde a un cliché que nos resulte familiar. Y por algún motivo extraño, muchas personas creen que es importante referirse a lo que ocurre en diversas películas y novelas de ciencia ficción cuando hablan del futuro de la inteligencia artificial. Mi opinión es que ahora mismo, a las máquinas se les da muy mal pensar (excepto en unas pocas y limitadas áreas). Sin embargo, algún día probablemente lo harán mejor que nosotros (al igual que las máquinas ya son mucho más fuertes y rápidas que cualquier criatura biológica). Pero ahora mismo hay poca información para saber cuánto tiempo tardará en surgir esta superinteligencia artificial. Lo mejor que podemos hacer ahora mismo, en mi opinión, es impulsar y financiar el pequeño pero pujante campo de investigación que se dedica a analizar el problema de controlar los riesgos futuros de la superinteligencia. Será muy importante contar con las mentes más brillantes, de tal manera que estemos preparados para afrontar este desafío a tiempo.

Daniel C. Dennett. Filósofo en el Centro de Estudios Cognitivos de la Universidad de Tufts

La Singularidad -el temido momento en el que la Inteligencia Artificial (IA) sobrepasa la inteligencia de sus creadores- tiene todas las características clásicas de una leyenda urbana: cierta credibilidad científica ("Bueno, en principio, ¡supongo que es posible!") combinada con un deliciosamente escalofriante clímax ("¡Nos dominarán los robots!"). Tras décadas de alarmismo sobre los riesgos de la IA, podríamos pensar que la Singularidad se vería a estas alturas como una broma o una parodia, pero ha demostrado ser un concepto extremadamente persuasivo. Si a esto le añadimos algunos conversos ilustres (Elon Musk, Stephen Hawking...), ¿cómo no tomárnoslo en serio? Yo creo, al contrario, que estas voces de alarma nos distraen de un problema mucho más apremiante. Tras adquirir, después de siglos de duro trabajo, una comprensión de la naturaleza que nos permite, por primera vez en la Historia, controlar muchos aspectos de nuestro destino, estamos a punto de abdicar este control y dejarlo en manos de entes artificiales que no pueden pensar, poniendo a nuestra civilización en modo auto-piloto de manera prematura. Internet no es un ser inteligente (salvo en algunos aspectos), pero nos hemos vuelto tan dependientes de la Red que si en algún momento colapsara, se desataría el pánico y podríamos destruir nuestra sociedad en pocos días. El peligro real, por lo tanto, no son máquinas más inteligentes que nosotros, que podrían usurpar nuestro papel como capitanes de nuestro destino. El peligro real es que cedamos nuestra autoridad a máquinas estúpidas, otorgándoles una responsabilidad que sobrepasa su competencia.

Frank Wilczek. Físico del Massachussetts Institute of Technology (MIT) y Premio Nobel

Francis Crick la denominó la "Hipótesis Asombrosa": la conciencia, también conocida como la mente, es una propiedad emergente de la materia. Conforme avanza la neurociencia molecular, y los ordenadores reproducen cada vez más los comportamientos que denominamos inteligentes en humanos, esa hipótesis parece cada vez más verosímil. Si es verdad, entonces toda inteligencia es una inteligencia producida por una máquina [ya sea un cerebro o un sistema operativo]. Lo que diferencia a la inteligencia natural de la artificial no es lo que es, sino únicamente cómo se fabrica. David Hume proclamó que "la razón es, y debería ser, la esclava de las pasiones" en 1738, mucho antes de que existiera cualquier cosa remotamente parecida a la moderna inteligencia artificial. Aquella impactante frase estaba concebida, por supuesto, para aplicarse a la razón y las pasiones humanas. Pero también es válida para la inteligencia artificial: el comportamiento está motivado por incentivos, no por una lógica abstracta. Por eso la inteligencia artificial que me parece más alarmante es su aplicación militar: soldados robóticos, drones de todo tipo y "sistemas". Los valores que nos gustaría instalar en esos entes tendrían que ver con la capacidad para detectar y combatir amenazas. Pero bastaría una leve anomalía para que esos valores positivos desataran comportamientos paranoicos y agresivos. Sin un control adecuado, esto podría desembocar en la creación de un ejército de paranoicos poderosos, listos y perversos.

John C. Mather. Astrofísico del Centro Goddard de la NASA y Premio Nobel

Las máquinas que piensan están evolucionando de la misma manera que, tal y como nos explicó Darwin, lo hacen las especies biológicas, mediante la competición, el combate, la cooperación, la supervivencia y la reproducción. Hasta ahora no hemos encontrado ninguna ley natural que impida el desarrollo de la inteligencia artificial, así que creo que será una realidad, y bastante pronto, teniendo en cuenta los trillones de dólares que se están invirtiendo por todo el mundo en este campo, y los trillones de dólares de beneficios potenciales para los ganadores de esta carrera. Los expertos dicen que no sabemos suficiente sobre la inteligencia como para fabricarla, y estoy de acuerdo; pero un conjunto de 46 cromosomas tampoco lo entiende, y sin embargo es capaz de dirigir su creación en nuestro organismo. Mi conclusión, por lo tanto, es que ya estamos impulsando la evolución de una inteligencia artificial poderosa, que estará al servicio de las fuerzas habituales: los negocios, el entretenimiento, la medicina, la seguridad internacional, la guerra, y la búsqueda de poder a todos los niveles: el crimen, el transporte, la minería, la industria, el comercio, el sexo, etc. No creo que a todos nos gusten los resultados. No sé si tendremos la inteligencia y la imaginación necesaria para mantener a raya al genio una vez que salga de la lámpara, porque no sólo tendremos que controlar a las máquinas, sino también a los humanos que puedan hacer un uso perverso de ellas. Pero como científico, me interesa mucho las potenciales aplicaciones de la inteligencia artificial para la investigación. Sus ventajas para la exploración espacial son obvias: sería mucho más fácil para estas máquinas pensantes colonizar Marte, e incluso establecer una civilización a escala galáctica. Pero quizás no sobrevivamos el encuentro con estas inteligencias alienígenas que fabriquemos nosotros mismos.

Stephen Pinker. Catedrático de Psicología en la Universidad de Harvard

Un procesador de información fabricado por el ser humano podría, en principio, superar o duplicar nuestras propias capacidades cerebrales. Sin embargo, no creo que esto suceda en la práctica, ya que probablemente nunca exista la motivación económica y tecnológica necesaria para lograrlo. Sin embargo, algunos tímidos avances hacia la creación de máquinas más inteligentes han desatado un renacimiento de esa ansiedad recurrente basada en la idea de que nuestro conocimiento nos llevará al apocalipsis. Mi opinión es que el miedo actual a la tiranía de los ordenadores descontrolados es una pérdida de energía emocional; el escenario se parece más al virus Y2K que al Proyecto Manhattan. Para empezar, tenemos mucho tiempo para planificar todo esto. Siguen faltando entre 15 y 25 años para que la inteligencia artificial alcance el nivel del cerebro humano.Es cierto que en el pasado, los «expertos» han descartado la posibilidad de que surjan ciertos avances tecnológicos que después emergieron en poco tiempo. Pero lo contrario también es cierto: los «expertos» también han anunciado (a veces con gran pánico) la inminente aparición de avances que después jamás se vieron, como los coches impulsados por energía nuclear, las ciudades submarinas, las colonias en Marte, los bebés de diseño y los almacenes de zombis que se mantendrían vivos para suministrar órganos de repuesto a personas enfermas. Me parece muy extraño pensar que los desarrolladores de robots no incorporarían medidas de seguridad para controlar posibles riesgos. Y no es verosímil creer que la inteligencia artificial descenderá sobre nosotros antes de que podamos instalar mecanismos de precaución. La realidad es que el progreso en el campo de la inteligencia artificial es mucho más lento de lo que nos hacen creer los agoreros y alarmistas. Tendremos tiempo más que suficiente para ir adoptando medidas de seguridad ante los avances graduales que se vayan logrando, y los humanos mantendremos siempre el control del destornillador. Una vez que dejamos a un lado las fantasías de la ciencia ficción, las ventajas de una inteligencia artificial avanzada son verdaderamente emocionantes, tanto por sus beneficios prácticos, como por sus posibilidades filosóficas y científicas.

sábado, 17 de enero de 2015

Un telescopio de agujeros negros capta el Sol en rayos x de alta energía


Los científicos consideran que el observatorio 'NuSTAR' ayudará a descifrar el enigma del calentamiento de la corona de la estrella

Las emisiones en rayos X de alta energía en el Sol se aprecian en esta imagen compuesta que sobrepone los datos del telescopio NuSTAR a los del SDO, ambos de la NASA.


Un telescopio de la NASA, el NuSTAR, diseñado y lanzado al espacio para observar agujeros negros, restos de supernova y otros fenómenos extremos en el universo, ha sido apuntado hacia un objeto mucho más corriente y cercano a la Tierra: el Sol. Se ha obtenido así la primera imagen de la estrella del Sistema Solar en rayos X de alta energía. Se trata de una foto sobrepuesta a otra tomada por el telescopio solar SDO, y en ella se aprecian emisiones de gas que superan los tres millones de grados centígrados.

Imagen de dos telescopios

La nueva foto del Sol, con datos del telescopio NuSTARcombinados con una imagen tomada por el  observatorio solar SDO, muestra en verde y azul las emisiones solares de alta energía (el verde corresponde a energías de entre 2 y 3 kiloelectronvoltios y el azul, entre 3 y 5 kiloelectronvoltios). El rojo corresponde a la luz ultravioleta captada por elSDO y desvela la presencia de material a baja temperatura en la atmósfera solar que está a un millón de grados, explica Caltech. Esta imagen desvela que parte de la emisiones más caliente captadas por el NuSTARprocede de localizaciones diferentes en las regiones activas de la corona de las de emisión más fría que capta elSDO.

“El NuSTAR nos dará una visión única del Sol, desde las partes más profundas hasta su atmósfera”, afirma David Smith, físico solar miembro del equipo del telescopio en la Universidad de California en Santa Cruz. Los científicos creen que con este observatorio podrían captar hipotéticas nanollamaradas solares.

La idea de apuntar el NuSTAR hacia el Sol surgió hace unos siete años, antes incluso de que el telescopio fuera lanzado al espacio (en junio de 2012), pero entonces pareció una propuesta descabellada, informa la NASA en un comunicado. “Al principio pensé que era una idea loca”, comenta Fiona Harrison, del Instituto de Tecnología de California (Caltech). “¿Por qué íbamos a apuntar hacia algo que está en nuestro patio trasero el telescopio de rayos X de alta energía más sensible que se ha construido jamás, diseñado para observar el universo profundo?”. Pero la idea fue ganando adeptos y acabó aprobándose.

No todo telescopio de rayos X puede permitirse mirar al Sol, que es demasiado brillante, por ejemplo, para el observatorio espacial Chandra, cuyos detectores resultarían afectados si lo intentara. Pero el NuSTAR(Nuclear Spectroscopic Telescope Array) no corre ese riesgo porque el Sol no es tan brillante en el rango de alta energía de rayos X para el que están diseñados sus detectores, y eso depende de la temperatura de la atmósfera solar, explican los expertos.

La temperatura de la capa más externa de la atmósfera solar desconcierta a los científicos. Su media está en torno al millón de grados centígrados, mientras que la superficie de la estrella ronda los 6.000 grados. No hay una explicación definitiva sobre este fenómeno. Es como si salieran llamas de cubitos de hielo, dicen los expertos del Jet Propulsion Laboratory (JPL), institución dependiente de Caltech que gestiona la misión NuSTAR para la NASA. Y este observatorio puede ayudar a resolver el enigma si llega a captar unas hipotéticas nanollamaradas que, de existir y en combinación con las llamaradas normales, podrían ser la fuente de ese alto calor en la corona. Las nanollamaradas serían versiones pequeñas de las bien conocidas llamaradas, que se generan en gigantescas erupciones de partículas cargadas y radiación de alta energía asociadas a las manchas solares. “ElNuSTAR será muy sensible a la más leve actividad en rayos X que se produzca en la atmósfera solar, y eso incluye posibles nanollamaradas”, señala Smith.

Ilustración del telescopio NuSTAR, con el mástil desplegado de 10 metros de longitud para separar los modulo ópticos de los detectores. / NASA/JPL-CALTECH

El Sol está ahora en su pico de actividad del actual ciclo de manchas (de unos 11 años de duración), que es el número 24 desde que comenzó su registro sistemático en 1755. Por ellos los especialistas confían en que obtendrán mejores datos en futuras imágenes, cuando la estrella se calme, señala Smith.

El NuSTAR, una misión pequeña de la NASA y de bajo coste (unos 140 millones de euros) en la que participan varias universidades e institutos de investigación estadounidenses, la Universidad Técnica de Dinamarca y la Agencia Italiana del Espacio (ASI), está en órbita casi ecuatorial alrededor de la Tierra, a poco más de 600 kilómetros de altura. Sus objetivos científicos esenciales son hacer un censo de estrellas colapsadas y agujeros negros de diferentes tamaños mediante la observación de regiones alrededor del centro de la Vía Láctea, pero asomándose también al cielo extragaláctico; cartografiar el material sintetizado en remanentes de supernovas jóvenes para comprender cómo se crean elementos químicos; y ayudar a desvelar qué alimenta los chorros relativistas de partículas que emergen de las galaxias activas más extremas que alojan agujeros negros supermasivos

Un algoritmo informático se convierte en el mejor jugador de póquer del mundo

Las máquinas ya lo hacen mejor que los humanos cuando se trata de jugar al tres en raya, a las damas o al ajedrez,

Pero, por complejos que sean, en estos juegos todo se resume a conocer las reglas y poder de computación (mental o artificial) para simular todas las posibles estrategias. Con el póquer la cosa se complica. Interviene el azar, y los jugadores no tienen toda la información, ya que el rival esconde sus cartas. Sin embargo, incluso en esa situación de incertidumbre, un nuevo algoritmo ha sido capaz de resolver el juego hasta el punto de que ningún jugador humano o máquina podrá ganarle la partida, según una investigación que se publica en la revista Science.

Desde mediados del siglo pasado, con pioneros de la computación moderna como Alan Turing, la inteligencia artificial (IA) siempre ha usado juegos para probar sus teorías. Como dice el profesor del departamento de informática de la Universidad de Alberta (Canadá), Mike Johanson, "para los investigadores de la inteligencia artificial, con cualquier juego, hay dos grandes hitos: la primera vez que un programa informático derrota a un campeón humano y la primera vez que un programa resuelve el juego creando una estrategia matemáticamente perfecta e imbatible, de modo que nunca más pierda con cualquier oponente, humano o máquina, aunque este lo sepa todo del programa".

Eso es lo que ha conseguido CFR+, un algoritmo desarrollado por un equipo de investigadores de la universidad canadiense entre los que está Johanson. Un algoritmo matemático es un conjunto de reglas a seguir durante pasos sucesivos. En la Wikipedia hay un ejemplo gráfico muy sencillo y que también se puede encontrar al final de cualquier manual de instrucciones: Punto de partida, la lámpara no funciona. Paso 1, ¿está enchufada? Si no lo está, enchufar. Si lo está, paso 2, ¿está fundido el foco? Si lo está, reemplazarlo y, si no lo está, paso 3, comprar una nueva lámpara. El problema con el póquer es que las posibles situaciones son casi astronómicas: 319 billones de posibilidades.

Al menos, esos son los conjuntos de información posibles en la versión del póquer descubierto con dos jugadores llamada Texas hold 'em, la más popular y la que se juega en los campeonatos mundiales de este juego de cartas. Aquí, el juego se inicia con el reparto de dos cartas boca abajo para cada jugador. Apuestan, y el que da las cartas saca tres boca arriba con las que tienen que jugar ambos. Si los dos vuelven a apostar se saca una cuarta y hasta una quinta carta. Solo al final del juego, si los dos han apostado, se descubren sus dos cartas. Esta modalidad del póker, que se puede jugar con o sin límite en la apuesta, es mucho más complicada para una máquina que otros tipos de juegos. En el caso de las damas o Connect-4 (versión del tres en raya ampliado a cuatro), se trata de juegos con información completa donde no hay margen para el azar y los jugadores pueden ver todas las piezas y saben todas las reglas.

"El póquer es todo lo contrario. Incluye el azar aleatorio de las cartas que te tocan y también cuenta con una información imperfecta, ya que no podemos ver las cartas que tiene el rival", recuerda Johanson. Su algoritmo puede contra el azar, la falta de información y hasta el faroleo. "Ahora es imposible para cualquier rival humano o informático derrotarle, aunque el oponente lo sepa todo del programa, su código fuente, la estrategia que usará, todo salvo las dos cartas que esconde", añade.

En realidad, el algoritmo no es aún perfecto, puede que el humano le gane alguna mano. "Sin embargo, aún usando la contra estrategia perfecta para vencerle, si alguien se pasara toda su vida jugando al póquer contra nuestro programa, jugando 200 partidas a la hora, 12 horas al día, los siete días de la semana durante 70 años, unos 660 millones de partidas, no tendría la certeza estadística de que le va a gana", sostiene el investigador canadiense. Y retan a cualquiera, ya sea humano o máquina a intentarlo. Han habilitado una página donde se puede jugar al póquer con CFR+.

Este mismo equipo de investigadores es el responsable de Polaris, el primer programa informático que ganó a un profesional del póquer en los campeonatos mundiales de 2008. Pero entonces era imperfecto, el humano ganó algunas partidas. Es decir, podía ganar la mayoría de las veces pero no había resuelto el juego encontrando siempre la mejor estrategia para ganar. Es más, el algoritmo en que se apoyaba, una versión previa de CFR, habría necesitado disponer de 523 terabytes (TB) de memoria y unos 10.000 años de procesamiento medido en tiempo de uso de un procesador para resolver matemáticamente todas las jugadas del Texas hold 'em. Con CFR+, han conseguido un algoritmo manejable que reduce el juego en subpartidas y que solo necesita 32 gigabytes (GB) de memoria RAM, 11 TB de espacio y apenas 900 años de tiempo de procesamiento. Con 200 nodos de 24 procesadores cada uno, en apenas dos meses, tiene la estrategia imbatible.

Por fortuna, el algoritmo aún tiene sus limitaciones. Está diseñado para el póquer donde hay límite en las apuestas. Además, CFR+ puede vencer a los humanos, pero uno a uno. En el póquer a varias bandas, ya no sería invencible, por ahora.

viernes, 16 de enero de 2015

Ocean Life Faces Mass Extinction, Broad Study Says

A dead whale in Rotterdam, the Netherlands, in 2011. As container ships multiply, more whales are being harmed, a study said.

MARCO DE SWART / AGENCE FRANCE-PRESSE — GETTY IMAGES

JANUARY 15, 2015

Carl Zimmer

MATTER

A team of scientists, in a groundbreaking analysis of data from hundreds of sources, has concluded that humans are on the verge of causing unprecedented damage to the oceans and the animals living in them.

“We may be sitting on a precipice of a major extinction event,” said Douglas J. McCauley, an ecologist at the University of California, Santa Barbara, and an author of the new research, which was published on Thursday in the journal Science.

But there is still time to avert catastrophe, Dr. McCauley and his colleagues also found. Compared with the continents, the oceans are mostly intact, still wild enough to bounce back to ecological health.

“We’re lucky in many ways,” said Malin L. Pinsky, a marine biologist at Rutgers University and another author of the new report. “The impacts are accelerating, but they’re not so bad we can’t reverse them.”

Transplanted coral off Java Island, Indonesia. Great damage results from the loss of habitats like coral reefs, an analysis found.

AMAN ROCHMAN / AGENCE FRANCE-PRESSE — GETTY IMAGES

Scientific assessments of the oceans’ health are dogged by uncertainty: It’s much harder for researchers to judge the well-being of a species living underwater, over thousands of miles, than to track the health of a species on land. And changes that scientists observe in particular ocean ecosystems may not reflect trends across the planet.

Dr. Pinsky, Dr. McCauley and their colleagues sought a clearer picture of the oceans’ health by pulling together data from an enormous range of sources, from discoveries in the fossil record to statistics on modern container shipping, fish catches and seabed mining. While many of the findings already existed, they had never been juxtaposed in such a way.

A number of experts said the result was a remarkable synthesis, along with a nuanced and encouraging prognosis.

“I see this as a call for action to close the gap between conservation on land and in the sea,” said Loren McClenachan of Colby College, who was not involved in the study.

There are clear signs already that humans are harming the oceans to a remarkable degree, the scientists found. Some ocean species are certainly overharvested, but even greater damage results from large-scale habitat loss, which is likely to accelerate as technology advances the human footprint, the scientists reported.

Coral reefs, for example, have declined by 40 percent worldwide, partly as a result of climate-change-driven warming.

Some fish are migrating to cooler waters already. Black sea bass, once most common off the coast of Virginia, have moved up to New Jersey. Less fortunate species may not be able to find new ranges. At the same time, carbon emissions are altering the chemistry of seawater, making it more acidic.

“If you cranked up the aquarium heater and dumped some acid in the water, your fish would not be very happy,” Dr. Pinsky said. “In effect, that’s what we’re doing to the oceans.”

Fragile ecosystems like mangroves are being replaced by fish farms, which are projected to provide most of the fish we consume within 20 years. Bottom trawlers scraping large nets across the sea floor have already affected 20 million square miles of ocean, turning parts of the continental shelf to rubble. Whales may no longer be widely hunted, the analysis noted, but they are now colliding more often as the number of container ships rises.

Mining operations, too, are poised to transform the ocean. Contracts for seabed mining now cover 460,000 square miles underwater, the researchers found, up from zero in 2000. Seabed mining has the potential to tear up unique ecosystems and introduce pollution into the deep sea.

The oceans are so vast that their ecosystems may seem impervious to change. But Dr. McClenachan warned that the fossil record shows that global disasters have wrecked the seas before. “Marine species are not immune to extinction on a large scale,” she said.

Until now, the seas largely have been spared the carnage visited on terrestrial species, the new analysis also found.

The fossil record indicates that a number of large animal species became extinct as humans arrived on continents and islands. For example, the moa, a giant bird that once lived on New Zealand, was wiped out by arriving Polynesians in the 1300s, probably within a century.

But it was only after 1800, with the Industrial Revolution, that extinctions on land really accelerated.

Humans began to alter the habitat that wildlife depended on, wiping out forests for timber, plowing under prairie for farmland, and laying down roads and railroads across continents.

Species began going extinct at a much faster pace. Over the past five centuries, researchers have recorded 514 animal extinctions on land. But the authors of the new study found that documented extinctions are far rarer in the ocean.

Before 1500, a few species of seabirds are known to have vanished. Since then, scientists have documented only 15 ocean extinctions, including animals such as the Caribbean monk seal and the Steller’s sea cow.

While these figures are likely underestimates, Dr. McCauley said that the difference was nonetheless revealing.

“Fundamentally, we’re a terrestrial predator,” he said. “It’s hard for an ape to drive something in the ocean extinct.”

Many marine species that have become extinct or are endangered depend on land — seabirds that nest on cliffs, for example, or sea turtles that lay eggs on beaches.

Still, there is time for humans to halt the damage, Dr. McCauley said, with effective programs limiting the exploitation of the oceans. The tiger may not be salvageable in the wild — but the tiger shark may well be, he said.

“There are a lot of tools we can use,” he said. “We better pick them up and use them seriously.”

Dr. McCauley and his colleagues argue that limiting the industrialization of the oceans to some regions could allow threatened species to recover in other ones. “I fervently believe that our best partner in saving the ocean is the ocean itself,” said Stephen R. Palumbi of Stanford University, an author of the new study.

The scientists also argued that these reserves had to be designed with climate change in mind, so that species escaping high temperatures or low pH would be able to find refuge.

“It’s creating a hopscotch pattern up and down the coasts to help these species adapt,” Dr. Pinsky said.

Ultimately, Dr. Palumbi warned, slowing extinctions in the oceans will mean cutting back on carbon emissions, not just adapting to them.

“If by the end of the century we’re not off the business-as-usual curve we are now, I honestly feel there’s not much hope for normal ecosystems in the ocean,” he said. “But in the meantime, we do have a chance to do what we can. We have a couple decades more than we thought we had, so let’s please not waste it.”

miércoles, 7 de enero de 2015

La nueva moda antiestrés: el orgasmo cerebral


Si a alguien le preguntan qué es la respuesta sensorial meridiana autónoma (ASMR, por sus siglas en inglés) seguramente se quedará en blanco. Conscientes de ello, quienes se están haciendo eco de este nuevo fenómeno no han tardado en rebautizarlo como “orgasmo cerebral”, nombre evocador donde los haya que facilita imaginar en qué consiste: “Es una sensación agradable, como unhormigueo que se desplaza sobre el cuero cabelludo o en otras partes del cuerpo, en respuesta a estímulos auditivos, visuales u olfativos”. O, por lo menos, así lo describe la periodista Stephanie Fairyington en un artículo del New York Times.

 

Para encontrar la fuente de estos placeres no hay que esforzarse demasiado: basta buscar en YouTube vídeos con la etiqueta ASMR, donde aparecen mujeres susurrando, doblando toallas, tamborileando con los dedos, desenvolviendo un regalo o realizando cualquier tarea banal de forma repetitiva durante un mínimo de veinte minutos. Aunque en ocasiones la sesión supera la hora de duración.

 

Por absurda que pueda sonar la idea de contemplar este tipo de escenas, el fenómeno gana adeptosLa anfitriona más popular es Maria, alias GentleWhispering, que creó su canal en febrero de 2011. Desde entonces, el número de visitantes ha crecido exponencialmente: va por 85 millones de visualizaciones y 300.000 suscriptores. Tampoco se queda corto el canal de Heather Feather, otro de los más populares con casi 37 millones de visitas y más de 180.000 adeptos.

 

¿Terapia eficaz o chorrada para ultramodernos? Las opiniones son dispares. Brad Schmidt, director de la Unidad de Ansiedad y Salud Mental del Departamento de Psicología de la Universidad de Florida, responde a la pregunta de si cree que las susurradoras pueden abrir nuevas vías terapéuticas con un rotundo “no”.

 

Por el contrario, el profesor Roumen Kirov, del Instituto de Neurobiología de la Academia de Ciencias de Bulgaria, está a favor de explorar el ASMR desde el punto de vista clínico. “En mi opinión, debería hacerse abordando cuestiones teóricas, como el principio de laenergía libre, la codificación predictiva –procesamiento neuronal de la información que se adelanta a los estímulos visuales– y el sueño lúcido”, indica este experto en neurodinámica.