DEFINICION DE MARCA CORPORATIVA
Marca corporativa
La marca corporativa se refiere a la príctica de utilizar el nombre de una compañía como marca del producto. Es un intento de apalancar el valor de marca corporativo al crear reconocimiento de marca. Constituye un tipo de marca de familia. The Walt Disney Company, por ejemplo, incluye la palabra Disney en el nombre de muchos de sus productos. Entre otros ejemplos, se encuentran IBM, Pepsi y Coca-Cola.
La marca corporativa puede proporcionar significativas economías de oportunidad desde el momento en que una campaña publicitaria se puede utilizar para anunciar varios productos. También facilita la aceptación de nuevos productos debido a que los compradores potenciales ya estín familiarizados con el nombre. Una estrategia de marca corporativa sólo es útil cuando la compañía ya es suficientemente conocida y tiene una imagen muy positiva en el mercado.
Una desventaja potencial de la marca corporativa es que el nombre corporativo puede llegar a ser sinónimo de una categoría de producto. Ejemplos de este fenómeno son Kleenex y Tampax. Incluso los compradores de productos competidores de Kleenex se refieren a ellos por este nombre. Esto supone un retroceso de la marca corporativa puesto que puede que los productos no se consideren en su forma individual lo que reduce el enfoque de mercadotecnia de que sus características son únicas
El misterio de los jets de Júpiter comienza a desvelarse
El misterio de los jets de Júpiter comienza a desvelarseUn equipo internacional dirigido por científicos de la UPV/EHU ha analizado dos gigantescas tormentas desencadenadas en el chorroEl trabajo es portada en el último número de la revista Nature El equipo, formado por científicos de la UPV/EHU, investigadores de la Fundación Observatorio Esteve Durín en Barcelona, y de diversos centros norteamericanos: NASA, Jet Propulsion Laboratory, Universidades de Berkeley y Arizona, así como de la Universidad de Oxford en el Reino Unido, entre otros, siguió el evento con una resolución espacial y temporal sin precedentes. Por un lado, utilizó el Telescopio Espacial Hubble (HST), y, por otro, el telescopio de la NASA en la cima de las montañas de Hawaii y los telescopios en Canarias, los cuales, al ver en luz infrarroja, permiten observar las nubes mís altas y los cambios de temperatura. Ademís, también ha sido decisivo el apoyo de toda una batería de telescopios mís pequeños ubicados en el hemisferio sur de la Tierra desde donde actualmente se ve en mejores condiciones el planeta Júpiter. Por fortuna, capturamos el inicio de la tormenta con el HST cuando se observaba Júpiter en apoyo a las observaciones que hacía la nave Nuevos Horizontes en su sobrevuelo del rumbo al lejano Plutón. Vimos como la tormenta crecía rípidamente desde unos 400 km hasta mís de 2.000 km en menos de 24 horas , explica Sínchez-Lavega.
Sorprendentemente, y a pesar de la enorme cantidad de energía depositada por las tormentas y de la mezcla y remolinos por ellas generados, la corriente en chorro permaneció prícticamente inmutable durante el desarrollo de la perturbación y al cesar ésta, manteniéndose robusta frente al envite sufrido. Los modelos de ordenador que simulan el desarrollo del fenómeno, sugieren que la corriente en chorro se extiende en la atmósfera profunda de Júpiter, mís de 100 km por debajo de las nubes visibles, a donde la energía solar no llega. Esto confirma los resultados anteriores obtenidos por la sonda Galileo cuando penetró en la atmósfera de Júpiter en diciembre de 1995. Aunque las regiones estudiadas son meteorológicamente diferentes, todo apunta a que corrientes en chorro de Júpiter se extienden en profundidad, y sugieren que la fuente de energía interna juega un papel importante en su generación , indica Sínchez-Lavega. La comparación de lo ahora observado con los dos casos anteriores, acaecidos en 1975 y 1990, muestra sorprendentes similitudes y coincidencias aún sin explicar. Las tres erupciones han tenido lugar con una recurrencia de unos 15 a 17 años, un período extraño a Júpiter, pues no tiene relación con ninguno de los periodos naturales de este planeta. Las tormentas surgieron en el pico del jet, donde la velocidad es míxima, no algo mís al Norte o al Sur. Las tormentas siempre han sido dos (ni una mís ni una menos), y finalmente siempre se movieron en todos los casos a la misma velocidad. Si en el futuro somos capaces de resolver este rompecabezas, probablemente llegaremos a comprender los misterios que se encierran bajo las nubes de Júpiter , indica Sínchez-Lavega. La atmósfera del planeta gigante gaseoso Júpiter, que tiene diez veces el tamaño de la Tierra y cuyo día dura solo 10 horas, se encuentra en un estado permanente de agitación. La circulación estí dominada por un sistema de corrientes en chorro, jets , alternantes con la latitud que distribuye sus nubes en franjas claras y oscuras paralelas al ecuador, todos ellos fenómenos de naturaleza es desconocida. Los cambios en las bandas de nubes son a veces violentos, desparramíndose y circunvalando el planeta. Su origen así como el de la fuente de energía que genera las bandas de nubes y las corrientes en chorro es materia de controversia entre los meteorólogos y científicos planetarios. Pueden generarse por la deposición de la radiación solar como en la Tierra, o por la intensa fuente de energía interna que emana del interior de Júpiter, o quizís por una combinación de los dos. Conocer los mecanismos que operan en estos fenómenos es importante para la meteorología terrestre que es pródiga en tormentas y donde las corrientes en chorro dominan la circulación atmosférica. En este sentido Júpiter representa un laboratorio natural en donde los científicos pueden estudiar la naturaleza e interrelación entre los jets, las tormentas y los fenómenos atmosféricos violentos. |
Los ladrillos de la vida tambien se originaron en Marte
Los ladrillos de la vida tambien se originaron en Marte
Previamente, los científicos habían pensado que el material orgínico del ALH 84001 había sido llevado a Marte por los impactos de meteoritos o, mís especulativamente, que se originó de antiguos microbios marcianos.El material orgínico aparece dentro de diminutas esferas de minerales de carbonatos, tanto en las rocas marcianas como en las terrestres explica Andrew Steele, autor principal del estudio. Encontramos que el material orgínico estí estrechamente asociado con el óxido férrico del mineral denominado magnetita, que es la clave para entender cómo se formaron estos compuestos .
El material orgínico en las rocas de Svalbard se originó cuando los volcanes hicieron erupción bajo condiciones de congelación. Durante su enfriamiento, la magnetita actuó como un catalizador para formar compuestos orgínicos a partir de fluidos ricos en dióxido de carbono (CO2) y agua (H2O). Esto ocurrió en condiciones donde no es probable que existiera ninguna forma de vida. La asociación de carbonato, magnetita y material orgínico en el meteorito marciano ALH 84001 es muy similar. í‰ste es el primer estudio que muestra que Marte es capaz de formar compuestos orgínicos.
El meteorito ALH 84001. (Foto: NASA) |
Los resultados de este estudio allanan el camino para la misión MSL (Mars Science Laboratory, o Laboratorio Científico a Marte) en el año 2009. Ahora sabemos que Marte puede producir esos compuestos orgínicos. Una de las metas de la misión es identificar sustancias orgínicas y sus fuentes, así como detectar moléculas relacionadas con la vida. Sabemos que allí existen. Sólo tenemos que encontrarlas , explica Steele, miembro del equipo que se ocupa del SAM (Sample Analysis on Mars, o Anílisis de Muestras en Marte), uno de los instrumentos a bordo del MSL.
El sistema planetario de gliese 581 es estable
El sistema planetario de gliese 581 es estable
Dos planetas en torno a Gliese 581 (una enana roja de tipo M), tienen masas de quizís entre 5 y 8 veces la de la Tierra. Dada su distancia a su estrella progenitora, estos planetas, Gliese 581c y Gliese 581d, estín dentro de la zona habitable alrededor de la estrella, o sea ni demasiado cerca ni demasiado lejos como para imposibilitar la existencia de agua líquida en la superficie de los planetas en ella ubicados.Las perturbaciones gravitatorias mutuas entre planetas diferentes estín presentes en cualquier sistema planetario con mís de un planeta. En nuestro sistema solar, bajo la influencia de los otros planetas, la órbita de la Tierra evoluciona periódicamente desde una forma circular hasta una que es ligeramente excéntrica. Esta variación ya basta para activar los ciclos alternados de eras cílidas y eras glaciales. Cambios orbitales mís drísticos podrían haber impedido el desarrollo de la vida en la Tierra.
Beust y sus colegas han calculado las órbitas del sistema Gliese 581 en un intervalo de 100 millones de años y han comprobado que el sistema parece dinímicamente estable, mostrando cambios orbitales periódicos comparables a los de la Tierra. De modo que todo apunta a que el clima en esos planetas es estable.
Por otra parte, la posible habitabilidad de uno de estos planetas, a la luz de otros estudios, es muy interesante debido a que la estrella central es una estrella enana roja del tipo M. Alrededor del 75 por ciento de todas las estrellas en nuestra galaxia son de tipo M. Las estrellas de esta clase duran mucho tiempo (potencialmente, decenas de miles de millones de años), son estables y usan hidrógeno para su reactor nuclear.
Durante mucho tiempo se consideró que las estrellas de tipo M eran pobres candidatas para albergar planetas habitables. Una de las razones era porque los planetas ubicados en la zona habitable de las estrellas M estín tan cerca de ellas que la gravedad de éstas provoca en los planetas que su rotación se adapte de tal modo a su movimiento de traslación que siempre presentan la misma cara a su estrella, mientras que el otro lado estí sumido en una oscuridad perpetua, lo que podría acarrear que la atmósfera se condensara irreversiblemente.
Otro motivo de esa poca confianza que hasta hace poco existía sobre la habitabilidad de sistemas con una estrella de tipo M era que durante su fase temprana dichas estrellas tienen una intensa actividad magnética asociada con violentas erupciones solares y altos flujos de rayos X y de los ultravioleta de la franja mís cercana a los X, que podrían erosionar las atmósferas planetarias. Sin embargo, recientemente, diversos estudios teóricos han revelado que el entorno de las estrellas de tipo M pudiera no impedir que estos planetas alberguen vida. Desde entonces, las estrellas de tipo M se han vuelto muy interesantes para los astrónomos porque los planetas potencialmente habitables que giran a su alrededor son mís fíciles de descubrir, usando las técnicas basadas en la velocidad radial y en los trínsitos, que los planetas de esa misma clase alrededor de estrellas como el Sol.
Representación gráfica de conjuntos inmensos de datos para detectar peligros
Representación grífica de conjuntos inmensos de datos para detectar peligros
El problema fue que la mayoría de tales pepitas estaban ocultas en medio de una avalancha de datos que llegaron mís rípido de lo que los analistas podían procesar. La recogida de datos de un día podría llenar mís de 6 millones de iPods de 160 gigas. Lo que es mís, como las personas, las pepitas algunas veces discrepan. Y, como una historia contada y recontada que se va distorsionando, sus mensajes cambiaron, a veces de manera imperceptible.Para impedir un próximo 11-S, los analistas deben mezclar, por así decirlo, el ojo enciclopédico de Google con el genio deductivo de Sherlock Holmes.
A finales del siglo pasado, Edward Tufte catalogó formas de visualizar datos estructurados (por ejemplo, horarios de trenes) o similares (por ejemplo, tasas de mortalidad). Hoy en día, los investigadores de la Dirección de Ciencia y Tecnología del Departamento de Seguridad Nacional de Estados Unidos estín creando formas de apreciar datos difusos como una imagen tridimensional donde los indicios de amenazas pueden resaltar de entre todo lo demís.
Se estín explorando diversas técnicas para ayudar a analizar las montañas de datos. (Foto: DHS S&T) |
Las imígenes estíticas de un mes pueden ser animadas como una película que presenta de manera acelerada el paso del tiempo, y en la que una cordillera creciendo revela una amenaza en auge.
Pasarín años antes que el anílisis visual pueda detectar automíticamente pistas a partir de datos difusos tales como el video, pero se van haciendo progresos hacia esa meta.
Asombrosas propiedades de una nueva fibra de cristal fotónico
Asombrosas propiedades de una nueva fibra de cristal fotónico
Este supercontinuo es una de las íreas mís fascinantes de la física aplicada actual, y la capacidad para crearlo con facilidad tendrí un efecto significativo en diversas tecnologías.El supercontinuo generado en las fibras de cristal fotónico también sirve para crear relojes ópticos tan exactos que sólo pierden o ganan un segundo cada millón de años. Dos físicos, en EE.UU. y Alemania, compartieron el premio Nobel de Física en el 2005 por su trabajo en esta írea.
A pesar de estas aplicaciones, el mecanismo subyacente en la generación del supercontinuo ha estado poco claro, lo que ha impedido a los físicos utilizarlo mís extensamente.
Dmitry Skryabin. (Foto: U. Bath) |
Dmitry Skryabin y Andrey Gorbach, del Centro para la Fotónica y los Materiales Fotónicos del Departamento de Física, han encontrado que la generación de luz en todo el espectro visible es producida por la interacción entre el pulso convencional de luz y los denominados solitones, ondas especiales de luz que mantienen su forma cuando viajan por la fibra.
Hasta ahora, la creación y manipulación del supercontinuo en las fibras de vidrio fotónico se ha logrado de un modo un tanto improvisado, sin saber exactamente por qué se producían los diferentes efectos. Pero a partir de esta nueva investigación, los científicos debieran ser capaces de tener mucha mayor precisión cuando lo utilicen.
Skryabin cree que la interacción entre los pulsos de luz y los solitones tiene similitudes con la forma en que la gravedad actúa sobre los objetos.
Nueva clase de vehículos guiados por control remoto para operaciones de rescate
Nueva clase de vehículos guiados por control remoto para operaciones de rescate
Policías, bomberos y otros expertos en emergencias que desempeñan actividades críticas cuando se desencadenan desastres naturales o provocados por el hombre, en el futuro podrín salvar mís vidas con la ayuda del Gizmo , un dispositivo avanzado que incluye comunicaciones móviles inalímbricas.En casi cualquier emergencia, lo mís importante es tener información inmediata y exacta. En el futuro, Gizmo podrí ir a cualquier parte por sí mismo y enviar en tiempo real cualquier información que se pueda necesitar.
Rodríguez espera construir muchas variedades de Gizmos, entre ellas una capaz de volar. Los dispositivos podrín ir a cualquier lugar que resulte demasiado peligroso para los humanos, incluyendo emergencias urbanas tales como toma de rehenes, ataques terroristas o el derrumbe de un edificio. El Gizmo actual es del tamaño de un camión de juguete dirigido por control remoto. Pero entre los futuros modelos los puede haber mís pequeños (para que, por ejemplo, puedan entrar sin ser descubiertos en un recinto donde se tiene atrapados a rehenes), y también otros mucho mís grandes, como un camión de tamaño real que podría penetrar en íreas azotadas por catístrofes tales como un huracín.
Javier Rodríguez Molina. (Foto: UCSD) |
Uno de los mayores problemas para el personal de salvamento en cualquier situación de emergencia es perder las comunicaciones entre ellos y no saber qué estí pasando dentro de un írea peligrosa. Así que Rodríguez y sus colegas se concentraron en la construcción de los Gizmos con la idea de que fuesen capaces de recabar información precisa en situaciones de emergencia y de transmitirla de inmediato a los miembros de los equipos de rescate, utilizando para ello cualquier sistema de comunicaciones que esté operativo.
Los datos reunidos por los Gizmos pueden reenviarse a través de la conexión de red inalímbrica a cualquier parte, ya sea a un puesto de la policía a una manzana de distancia o a un laboratorio de investigaciones en el otro lado del mundo. Los Gizmos pueden ser controlados por teléfono móvil, ordenador portítil, e incluso mediante un joystick para videojuegos conectado a un ordenador. Aceptan desde Bluetooth hasta cualquier tipo de transmisor inalímbrico de emergencia que el personal esté utilizando.
La plataforma de cada Gizmo puede equiparse con cualquier dispositivo, como címaras de alta definición, micrófonos ultrasensibles, sensores que detecten gases peligrosos o altos niveles de radiación o de calor, y un brazo robótico manejable por control remoto que pueda recoger muestras. Toda la información que reúnan de este modo la pueden enviar a cualquier dispositivo de comunicación.
Si un sistema de comunicación falla, el personal de emergencias puede cambiar a otro. Como cualquier sistema inalímbrico de internet, los Gizmos pueden enviar información a través de paredes o de otros obstículos.
Otra meta que persigue Rodríguez es que los Gizmos sean, en general, bastante baratos (por debajo de los mil dólares), y que sean fabricados con muchas piezas fíciles de reemplazar, de modo que se les pueda producir en masa. La idea es que cualquier cuerpo de bomberos, o de policía, u otras entidades al cargo de servicios de emergencia pueda comprarlos sin dificultad, y reemplazar en un plazo muy breve a aquellos que resulten destruidos en el cumplimiento de sus arriesgadas misiones
Por ahora, los Gizmos son vehículos con ruedas, pero Rodríguez y sus colaboradores ya estín construyendo uno con cadenas de oruga para que pueda subir escaleras o avanzar sobre terrenos con desniveles y obstículos.
Las aplicaciones de los Gizmos pueden ir incluso mís allí de las tareas de salvamento. Se les podría emplear en tareas que van desde vigilancia rutinaria de seguridad hasta ayudar en excavaciones arqueológicas delicadas.
Nuevo biochip podría reemplazar la experimentación con animales
Nuevo biochip podría reemplazar la experimentación con animales
El biochip contiene una suspensión de mís de mil cultivos de células humanas en un gel tridimensional. Cada cultivo celular es capaz de evaluar la toxicidad de un producto químico diferente.Agregando otros tipos de células, como las del pulmón o las del corazón, y combinando el DataChip con otro biochip (el MetaChip) que los investigadores crearon hace varios años, las compañías de cosméticos o productos químicos también podrían probar si sus productos son tóxicos para otros órganos, no sólo para la piel.
El DataChip extiende las capacidades del MetaChip y le permite probar los efectos tóxicos de los productos químicos y sus metabolitos en todo el cuerpo. í‰ste es un paso importante hacia el reemplazo de los animales para evaluar la seguridad de un producto, así como hacia un sistema personalizado que pueda predecir la toxicidad de los medicamentos en individuos concretos.
El DataChip en funcionamiento. (Foto: Moo-Yeal Lee/Rensselaer Polytechnic Institute) |
Las compañías farmacéuticas son sólo uno de los tipos de usuarios potenciales.
Dentro de los próximos 5 a 10 años, cuando el costo de secuenciar todos los genes de una persona se vuelva bastante asequible, las personas podrín disponer del anílisis de su genoma individual para así obtener la información sobre los tipos y niveles de las enzimas del hígado que determinan cómo reaccionarín a medicamentos específicos, y reproducir entonces este perfil en un MetaChip para que éste revise todos los medicamentos antes de que se les administren, determinando las dosis eficaces y seguras.
Cómo la bacteria del ántrax (carbunclo) elude nuestras defensas inmunológicas
Cómo la bacteria del íntrax (carbunclo) elude nuestras defensas inmunológicasEl íntrax es causado por la bacteria Bacillus anthracis, y afecta a mamíferos, incluidos los humanos. La B. anthracis sobrevive en el entorno en forma de esporas que, una vez que han entrado en el organismo, pueden desarrollarse y dar lugar a la nefasta acción bacteriana. Estas bacterias se multiplican con notable rapidez, produciendo toxinas. Los efectos, si no se aplica el debido tratamiento médico, son mortales en el cien por cien de los casos de las infecciones por inhalación. Incluso aplicando el tratamiento, que consiste en terapia con antibióticos y cuidados intensivos, no siempre se logra evitar un desenlace fatal.En sus experimentos, han demostrado incluso que inyectando la enzima en ratones infectados es posible lograr protegerles. Sin embargo, a pesar de la capacidad de producir de modo natural esta enzima, la infección con B. anthracis por medio de la inhalación sigue siendo mortal si no se trata. Por lo tanto, es de una gran importancia determinar el o los mecanismos por los que la B. anthracis interfiere con la defensa natural del organismo atacado por ella. Los investigadores han descubierto que una de las toxinas secretadas por la bacteria le permite contrarrestar la acción de la enzima protectora. De hecho, esta toxina inhibe la síntesis de esa enzima por los macrófagos pulmonares, lo cual reduce su capacidad de combatir a los bacilos, pudiendo entonces activarse las esporas del B. anthracis sin que encuentren resistencia. Habiendo dilucidado los mecanismos que intervienen en el ímbito molecular en la inhibición de la síntesis de la enzima, los investigadores esperan ahora poder identificar nuevos blancos terapéuticos contra el íntrax. Por ejemplo, el uso de la propia enzima protectora, que elimina a la bacteria mucho mís rípidamente que los antibióticos administrados hoy en día, podría constituir una estrategia interesante. |
Memoria electrónica mil veces más veloz y capaz de guardar datos durante cien mil años
Memoria electrónica mil veces mís veloz y capaz de guardar datos durante cien mil años
Ritesh Agarwal, Se-Ho Lee y Yeonwoong Jung han desarrollado un nanocable autoensamblable de teluro de antimonio y germanio, un material con cambio de fase que alterna entre estructuras amorfas y cristalinas, la clave para leer y escribir memorias de ordenadores. La fabricación de los nanodispositivos, de apenas 100 ítomos de diímetro, fue realizada sin la litografía convencional, proceso de fabricación un tanto burdo que utiliza productos químicos fuertes y que produce con frecuencia materiales inutilizables, con limitaciones de espacio, tamaño y eficiencia.Los resultados de las pruebas han mostrado un consumo extremadamente menor de energía para la codificación de datos (0,7 mW por bit). También han demostrado que la escritura, borrado y recuperación de datos (50 nanosegundos) es mil veces mís rípida que en las memorias Flash convencionales. E incluso apuntan a que el dispositivo no perderí información después de unos 100.000 años de uso, todo ello con el potencial de materializar dispositivos de memoria no volítil con densidades del orden de los terabits.
Esta nueva forma de memoria representa una posible revolución en la manera en que accedemos a la información y la almacenamos.
La memoria de cambio de fase, en general, se caracteriza por una lectura/escritura mís rípida, mejor durabilidad y construcción mís sencilla en comparación con otras tecnologías de memoria tales como la Flash. El desafío ha sido reducir el tamaño de los materiales de cambio de fase a través de técnicas litogríficas convencionales sin dañar sus propiedades útiles. Los nanocables de cambio de fase, como los creados por los investigadores de la Universidad de Pensilvania, brindan una nueva estrategia útil para lograr memorias ideales que proporcionen un control de los datos almacenados eficiente y duradero, varios órdenes de magnitud por encima de las tecnologías actuales.
Las primeras estrellas ¿fueron objetos exóticos alimentados por materia oscura?
Las primeras estrellas ¿fueron objetos exóticos alimentados por materia oscura?
En el estudio se calculó cómo el nacimiento de las primeras estrellas, hace casi 13 mil millones años, pudo haber estado influenciado por la presencia de la materia oscura, todavía no observada ni identificada, que los científicos creen forma la mayor parte de la materia del universo.Es concebible incluso que algunas de esas gigantescas estrellas oscuras todavía sigan existiendo hoy, y aunque no emitan luz visible podrían ser detectadas porque deben emitir rayos gamma, neutrinos y antimateria, y estar asociadas a nubes de hidrógeno molecular frío que normalmente no albergarían partículas con tales energías.
Sin simulaciones detalladas, no es posible predecir con cierto grado de fiabilidad la evolución posterior de las estrellas oscuras. De modo que estas estrellas oscuras pudieron durar meses, o varios centenares de millones de años, o incluso seguir existiendo todavía después de miles de millones de años.
Concepto artístico de una estrella oscura invisible, vista en el infrarrojo. (Foto: The University of Utah) |
Algunos estudios han considerado el papel de la materia oscura en la evolución del universo temprano, pero el de Gondolo y sus colaboradores es el primero que examina el posible papel de la materia oscura en la formación de las primeras estrellas.
Los científicos saben que la materia oscura existe porque las galaxias giran mís deprisa de lo que puede explicarse por la materia visible dentro de ellas. También las observaciones hechas por satélites, globos sonda y telescopios han llevado a la estimación de que toda la materia visible representa sólo el 4 por ciento del universo, y que también estí formado por un 23 por ciento de materia oscura y un 73 por ciento de energía oscura , una fuerza todavía desconocida que ayuda al universo a expandirse.
Las WIMPs, partículas masivas de interacción débil, estín entre los principales candidatos para la materia oscura. Los neutralinos son un tipo de WIMP cuya existencia predicen las teorías mís aceptadas que buscan explicar el origen de la masa en el universo.
La mayoría de los científicos cree que el universo comenzó a existir hace unos 13 mil millones de años, en una súbita expansión del tiempo y el espacio conocida como el Big Bang .
Después de esa explosión, pequeñas fluctuaciones en la temperatura provocaron que parte de la materia mís temprana empezara a agruparse en un proceso acelerado por la gravedad, y eso produjo las primeras estrellas y galaxias. La materia era fundamentalmente oscura pero también incluía materia normal en la forma de los gases hidrógeno y helio.
La teoría convencional de cómo nacieron las primeras estrellas sostiene que los ítomos como el hidrógeno y el helio se agruparon y se arremolinaron en las nubes protoestelares, que empezaron a enfriarse, haciendo que las nubes se contrajeran y se hicieran mís densas. El enfriamiento y la contracción de la estrella embrionaria continúan hasta que comienza la fusión del hidrógeno en helio, encendiendo así el reactor de fusión que opera en nuestro Sol y en otras estrellas.
Para el nuevo estudio, los astrofísicos calcularon cómo la materia oscura habría afectado a la temperatura y a la densidad del gas que se condensó para formar las primeras estrellas.
Los resultados sugieren que los neutralinos de la materia oscura interactuaron aniquilíndose entre sí, produciendo partículas subatómicas denominadas quarks, y sus homólogos de antimateria, los antiquarks. Esto generó calor. Cuando una nube protoestelar de hidrógeno y helio tendía a enfriarse y contraerse, la materia oscura la mantenía caliente y expandida, impidiendo que la fusión encendiera la estrella.
El calor puede neutralizar el enfriamiento, y de ese modo el objeto que iría camino de convertirse en una estrella normal deja de contraerse durante algún tiempo y forma una estrella oscura, entre unos 80 y 100 de millones de años después del Big Bang. í‰ste es el resultado principal del estudio.
Las estrellas oscuras contendrían sobre todo materia normal, siendo la mayor parte moléculas de hidrógeno y helio, pero serían inmensamente mís grandes y mucho menos densas que el Sol y otras estrellas. Esas estrellas oscuras debieron haber irradiado rayos infrarrojos, que son bísicamente calor.
En especial, llama la atención su colosal tamaño, con diímetros que van como promedio desde 4 veces la distancia entre el Sol y la Tierra hasta 2.000 veces esa distancia, lo bastante grandes para tragarse 15.000 sistemas solares como el nuestro.
Los quarks y los antiquarks producidos dentro de la estrella oscura a su vez generarían partículas descendientes, incluyendo fotones de rayos gamma, neutrinos y partículas de antimateria tales como los positrones y los antiprotones. A simple vista, no se puede ver una estrella oscura. Pero su radiación nos freiría.
Las estrellas oscuras tienen algunas implicaciones importantes para la astrofísica. Representan una nueva fase en la evolución de estrellas. Por otra parte, su posible existencia podría ayudar a localizar e identificar la materia oscura. Los rayos gamma, los neutrinos y la antimateria tienen firmas muy típicas de energía si provienen de la materia oscura.
Asimismo, las estrellas oscuras podrían mejorar la comprensión de cómo se formaron los elementos pesados. Supuestamente, las primeras estrellas fueron la cuna de tales elementos, produciéndolos por medio de la fusión nuclear. Pero si las estrellas oscuras existieron y no evolucionaron después en estrellas normales, entonces no fabricaron el carbono. Quizí el carbono vino de otras estrellas, tal vez de las convencionales que se formaron donde no había materia oscura cercana.
Las estrellas oscuras también pueden explicar por qué los agujeros negros se formaron mucho mís rípido de lo esperado. Quizís estos cadíveres de estrellas que se vuelven densos hasta el punto de que su descomunal campo gravitatorio impide escapar incluso a la luz, ya comenzaron a existir tan sólo unos centenares de millones de años después del Big Bang, aunque las teorías actuales sostienen que tardaron mucho mís tiempo en formarse. Las estrellas oscuras pudieron ayudar a acelerar el proceso. Ellas pudieron colapsarse muy temprano en agujeros negros porque se formaron en una época muy antigua del universo y es posible, según una hipótesis que se baraja, que fuesen muy efímeras.
Otra posibilidad es que las estrellas oscuras durasen un largo tiempo pero que acabaran convirtiéndose en estrellas convencionales.
Gondolo y sus colegas creen que el gas que se enfría y la materia oscura que lo calienta dentro de una estrella oscura pueden permanecer en equilibrio permitiendo que éstas sobrevivan, aunque eso depende de que sean correctas ciertas suposiciones sobre la masa de los neutralinos.
Análisis de núcleos de hielo tibetanos sugiere que un campo de hielo se está derritiendo
Anílisis de núcleos de hielo tibetanos sugiere que un campo de hielo se estí derritiendo
En el 2006, un equipo de especialistas estadounidenses y chinos realizó unas perforaciones que permitieron extraer cuatro núcleos de hielo de la cumbre de un gran glaciar de 6.050 metros de altitud en la meseta tibetana. Los núcleos fueron sometidos a un largo y detallado anílisis.Esa ausencia de la radioactividad originada como precipitación radiactiva por culpa de las numerosas pruebas nucleares atmosféricas efectuadas durante los años cincuenta y sesenta, proporciona sistemíticamente a los investigadores una referencia para calibrar cuínto hielo nuevo se ha acumulado en un glaciar o campo de hielo.
Los investigadores analizan sistemíticamente núcleos de hielo buscando muchos indicadores: partículas, polvo, isótopos de oxígeno, etc. Con ellos es posible averiguar datos importantes sobre el clima que existía en el pasado en el lugar del que se extrae el núcleo.
Las nieves tibetanas estudiadas. (Foto: ©Thomas Nash 2007) |
Hay aproximadamente 12.000 kilómetros cúbicos de agua dulce almacenados en los glaciares del Himalaya.
Las señales de radiactividad Beta, del estroncio-90, cesio-136, tritio (hidrógeno-3) y cloro-36, son el remanente de la precipitación radiactiva de las pruebas atómicas efectuadas en las décadas de 1950 y 1960. Estín presentes en los núcleos de hielo recuperados de las regiones polares y de los glaciares tropicales en diversas partes del planeta, y denotan que dichos campos de hielo han retenido nieve caída en los últimos 50 años.
En núcleos de hielo extraídos en el 2000 en el campo de hielo del sector norte del Kilimanjaro (a 5.890 metros de altura), la precipitación radiactiva de las pruebas atómicas de los años 50 se encontró sólo a 1,8 metros debajo de la superficie.
En el 2006, la superficie de ese campo de hielo había perdido mís de 2,5 metros de hielo sólido (y por ende de registro histórico), incluyendo el hielo que contenía esa señal. Si los científicos hubieran extraído esas muestras de hielo en el 2006 en lugar de en el 2000, ese horizonte radiactivo estaría ausente como lo estí ahora en el campo de hielo estudiado del Himalaya.
Los científicos estiman que hay unos 15.000 glaciares aposentados en la cordillera del Himalaya, formando el almacén principal de agua dulce en esa parte del mundo. Se espera que el írea total de glaciares en la meseta tibetana se encoja en un 80 por ciento para el año 2030.
La pérdida de genes contribuyó a la evolución humana
La pérdida de genes contribuyó a la evolución humanaEl trabajo ha sido realizado por Jingchun Zhu (especialista en bioinformítica) con la colaboración de David Haussler (profesor de ingeniería biomolecular), Zack Sanborn y otros investigadores de la universidad. Es el primer estudio diseñado para buscar en todo el genoma la pérdida relativamente reciente de genes que no tienen copias exactas ni aproximadas en otra parte del genoma. Es probable que éstas sean las pérdidas mís importantes de genes.Para encontrar las pérdidas de genes, los investigadores emplearon un software denominado TransMap. El programa comparó los genomas de ratón y de humano buscando genes que presentan cambios lo bastante significativos para hacerlos no funcionales en algún punto del periodo de 75 millones de años transcurrido desde la divergencia de los linajes de ambos organismos. Como el perro divergió de nuestro ancestro común antes que el ratón, los investigadores emplearon el genoma del perro como referencia externa para filtrar los falsos positivos. Si un gen todavía existe en el perro y en el ratón, pero no en los humanos, probablemente existió en el antepasado común y se perdió entonces en el linaje humano.
Luego compararon los genes identificados en el genoma completo del ser humano, el chimpancé, el mono rhesus, el ratón, la rata, el perro y la zarigí¼eya, para estimar la cronología evolutiva relativa a cuando el gen era funcional, antes de que se perdiera. Este anílisis refinó la cronología de la pérdida de los genes y también sirvió como referencia para saber si el gen estaba bien establecido desde bastante tiempo atrís siendo por consiguiente funcional, o si sólo se trataba de la copia de un gen redundante. A través de este proceso, encontraron seis genes que sólo se habían perdido en el ser humano. Después de varios anílisis, los investigadores concluyeron que la pérdida probablemente se produjo en el linaje de los primates, después de la diferenciación del gorila y antes de la del chimpancé. Los investigadores también identificaron otros genes perdidos en los humanos y que no tenían ningún homólogo funcional , o sea genes alternativos que pudieran realizar la misma función en el genoma humano. Algunos de estos genes perdidos habían sido funcionales durante mís de 300 millones de años. |
Generador eléctrico microbiano para cubrir necesidades básicas de electricidad
Generador eléctrico microbiano para cubrir necesidades bísicas de electricidad
Peter Girguis, profesor de Biología Evolutiva, ha desarrollado una célula de combustible alimentada por la actividad natural de microbios anaerobios. Las células pueden ser fabricadas por sólo unos pocos dólares, poniéndolas al alcance de las personas en zonas empobrecidas del mundo que hoy no tienen acceso alguno a la electricidad.En la Tierra hay 2.800 millones de personas sin electricidad que estín reclamando disponer de ella , subraya Girguis. La mayoría de esas personas necesitan la electricidad para la iluminación y las telecomunicaciones .
Los científicos han estado estudiando en el laboratorio las células de combustible microbianas durante décadas. El objetivo de Girguis ha sido tomar el conocimiento existente y aplicarlo en un dispositivo funcional y barato que pueda ser distribuido en los lugares carentes de electricidad.
Peter Girguis. (Foto: Kris Snibbe/Harvard News Office) |
Las células de combustible funcionan gracias a una característica particular de las bacterias anaerobias. Ellas viven y metabolizan sus alimentos en ambientes sin oxígeno, produciendo electrones extra que normalmente liberan en el material a su alrededor. Introduciendo ahí un electrodo, es posible recolectar esos electrones para crear una pequeña corriente eléctrica.
La célula de combustible de Girguis utiliza un electrodo, cables y una pequeña placa con circuitería, del tamaño de un mazo de cartas. La electricidad fluye desde el electrodo a la placa, y de ahí hacia el exterior por una de las dos tomas de corriente existentes en el lado opuesto. Una toma proporciona la energía para dispositivos eléctricos como las bombillas de tipo LED (de ultrabajo consumo), mientras el otro tiene un cargador para un teléfono móvil.
Iqbal Quadir (del MIT), quien puso en marcha una compañía que ha llevado el servicio de telefonía móvil a millones de personas en Bangladesh, permitirí la distribución de las células de combustible microbianas de Girguis como parte de una nueva empresa de generación de energía que Quadir estí impulsando.
Sin embargo, deben darse varios pasos antes de que esa implantación sea una realidad. Aunque Girguis ha desarrollado varias células de combustible diferentes, todavía no ha empezado a producirlas. Es necesario continuar las investigaciones sobre éstas para ver la diferencia en el rendimiento de las distintas tierras y sedimentos, y qué sucede exactamente cuando la tierra se enriquece con esa materia orgínica.
Un beneficio adicional de la tecnología de las células de combustible es que al no quemar combustibles fósiles, generan energía sin producir impactos negativos sobre el clima.
«PERO YO SÍ TE VEO» ...ANALISIS DE CASO
| ||||
Estaba ardiendo una casa. Todos se habían salvado, excepto un niño que se encontraba en el segundo piso. La escalera estaba en llamas y llena de humo. No había salida sino por la ventana. —¡Papí, papí! ¿Cómo voy a escapar? —gritó el niño. —¡Aquí estoy —le gritó a su vez el padre—; déjate caer, que te recibiré en mis brazos! ¡Tírate, Carlitos, que yo te recibiré! Carlos salió a gatas por la ventana, pero allí quedó atrapado porque tenía miedo. Sabía que era muy largo el trecho hasta la calle. —¡Suéltate, déjate caer! —le gritó el padre. —No puedo verte, papí. —Pero yo sí te veo. Aquí estoy. Ten confianza. Suéltate, que yo te salvaré. —Tengo miedo de caer. —¡Suéltate, tírate! —gritaban otras voces—. Tu padre te recibirí con toda seguridad. No tengas miedo. Al fin, acordíndose de la fuerza y del amor de su padre, el niño recobró la confianza y se dejó caer. Segundos después, se halló sano y salvo en los brazos de su padre. 1 En el Sermón del Monte, después del padrenuestro en que nos enseña a orar, Jesucristo, el Hijo de Dios, refuerza con una comparación esa relación de padre e hijo que tenemos con el Padre celestial. «¿Quién de ustedes, si su hijo le pide pan, le da una piedra? ¿O si le pide un pescado, le da una serpiente? —dice a modo de interrogación retórica—. Pues si ustedes, aun siendo malos, saben dar cosas buenas a sus hijos —concluye Cristo—, ¡cuínto mís su Padre que estí en el cielo darí cosas buenas a los que le pidan!» 2 Ese poder y ese deseo de Dios de darnos a nosotros sus hijos lo que le pidamos con tal que nos convenga se remonta a los tiempos en que los salmistas de Israel representaban implícitamente al Señor su Dios como el Padre celestial que, en los momentos de mayor ansiedad, sabe cuidar perfectamente a sus hijos. Uno de los mís citados de esos salmos, que bien pudo haberle infundido aliento tanto a Carlos como a su padre en la anécdota, es el Salmo 121. Dice así: A las montañas levanto mis ojos; No permitirí que tu pie resbale; El Señor es quien te cuida, El Señor te protegerí; Gracias a Dios, cuando estamos pasando por una prueba, ya sea una calamidad como un incendio, o una crisis moral o financiera, o una enfermedad grave o mortal, podemos acudir a í‰l como nuestro Padre celestial al igual que el salmista de Israel, confiados de que í‰l sí nos ve aunque nosotros no podamos verlo a í‰l, y que nos protegerí y nos cuidarí «desde ahora y para siempre». Amén. |