DEFINICION DE MARCA CORPORATIVA

Posted by renegarcia on 31 Enero, 2008 22:08

Marca corporativa

 

La marca corporativa se refiere a la príctica de utilizar el nombre de una compañí­a como marca del producto. Es un intento de apalancar el valor de marca corporativo al crear reconocimiento de marca. Constituye un tipo de marca de familia. The Walt Disney Company, por ejemplo, incluye la palabra Disney en el nombre de muchos de sus productos. Entre otros ejemplos, se encuentran IBM, Pepsi y Coca-Cola.

La marca corporativa puede proporcionar significativas economí­as de oportunidad desde el momento en que una campaña publicitaria se puede utilizar para anunciar varios productos. También facilita la aceptación de nuevos productos debido a que los compradores potenciales ya estín familiarizados con el nombre. Una estrategia de marca corporativa sólo es útil cuando la compañí­a ya es suficientemente conocida y tiene una imagen muy positiva en el mercado.

Una desventaja potencial de la marca corporativa es que el nombre corporativo puede llegar a ser sinónimo de una categorí­a de producto. Ejemplos de este fenómeno son Kleenex y Tampax. Incluso los compradores de productos competidores de Kleenex se refieren a ellos por este nombre. Esto supone un retroceso de la marca corporativa puesto que puede que los productos no se consideren en su forma individual lo que reduce el enfoque de mercadotecnia de que sus caracterí­sticas son únicas

 

 

Los Canales de Distribución son el conjunto de empresas o individuos que adquieren la propiedad, o participan en su transferencia, de un bien o servicio a medida que éste se desplaza del productor al consumidor o usuario industrial

El misterio de los jets de Júpiter comienza a desvelarse

Posted by renegarcia on 31 Enero, 2008 22:05

El misterio de los jets de Júpiter comienza a desvelarse

Un equipo internacional dirigido por cientí­ficos de la UPV/EHU ha analizado dos gigantescas tormentas desencadenadas en el chorro

El trabajo es portada en el último número de la revista Nature

A finales de marzo de 2007, cientí­ficos de todo el mundo observaron con sorpresa y asombro un raro cambio en la atmósfera de Júpiter. Una gigantesca perturbación se desencadenó en sus nubes con la erupción de dos brillantes tormentas en las latitudes medias del hemisferio norte, donde reside la corriente en chorro, conocida como jet, mís intensa del planeta, la cual alcanza velocidades de 600 kilómetros por hora. Las investigaciones sobre estas inusuales tormentas (las anteriores fueron observadas en 1975 y 1990) y la reacción del jet, realizadas por un equipo internacional coordinado por Agustí­n Sínchez-Lavega, profesor de la Escuela Técnica Superior de Ingenierí­a de la Universidad del Paí­s Vasco (UPV/EHU), dan una idea mís precisa sobre el origen de estas corrientes de chorro y pueden ayudar, así­ mismo, a comprender mejor la meteorologí­a terrestre. El trabajo, titulado Depth of a strong jovian jet from a planetary-scale disturbance driven by storms , es portada en el número del 24 de enero de la revista Nature.

El equipo, formado por cientí­ficos de la UPV/EHU, investigadores de la Fundación Observatorio Esteve Durín en Barcelona, y de diversos centros norteamericanos: NASA, Jet Propulsion Laboratory, Universidades de Berkeley y Arizona, así­ como de la Universidad de Oxford en el Reino Unido, entre otros, siguió el evento con una resolución espacial y temporal sin precedentes. Por un lado, utilizó el Telescopio Espacial Hubble (HST), y, por otro, el telescopio de la NASA en la cima de las montañas de Hawaii y los telescopios en Canarias, los cuales, al ver en luz infrarroja, permiten observar las nubes mís altas y los cambios de temperatura. Ademís, también ha sido decisivo el apoyo de toda una baterí­a de telescopios mís pequeños ubicados en el hemisferio sur de la Tierra desde donde actualmente se ve en mejores condiciones el planeta Júpiter. Por fortuna, capturamos el inicio de la tormenta con el HST cuando se observaba Júpiter en apoyo a las observaciones que hací­a la nave Nuevos Horizontes en su sobrevuelo del rumbo al lejano Plutón. Vimos como la tormenta crecí­a rípidamente desde unos 400 km hasta mís de 2.000 km en menos de 24 horas , explica Sínchez-Lavega.

A la izquierda, imagen de Júpiter en luz infrarroja tomada por el telescopio IRTF de la NASA desde la cima de Mauna Kea, en Hawai, a 4.200 m de altura el 5 de abril de 2007. Se aprecian las dos tormentas brillantes. A la derecha, imagen de Júpiter en luz visible obtenida con el Telescopio Espacial Hubble (HST) el 11 de mayo de 2007, en la cual se aprecia la turbulencia originada tras las dos grandes tormentas (Prensa ehu.es)
De acuerdo con la investigación, las brillantes tormentas se forman en las nubes mís profundas de agua del planeta ascendiendo vigorosamente e inyectando una mezcla de hielo de amoní­aco y agua hasta mís de 30 km por encima de las nubes visibles. Las tormentas se mueven con la míxima velocidad del jet, a mís de 600 kilómetros por hora, perturbíndolo y generando tras ellas una estela de turbulencia de nubes rojizas que circundan todo el planeta. Las imígenes infrarrojas muestran perfectamente los festones brillantes que forman las tormentas desparramíndose a sotavento de la corriente en chorro.

Sorprendentemente, y a pesar de la enorme cantidad de energí­a depositada por las tormentas y de la mezcla y remolinos por ellas generados, la corriente en chorro permaneció prícticamente inmutable durante el desarrollo de la perturbación y al cesar ésta, manteniéndose robusta frente al envite sufrido. Los modelos de ordenador que simulan el desarrollo del fenómeno, sugieren que la corriente en chorro se extiende en la atmósfera profunda de Júpiter, mís de 100 km por debajo de las nubes visibles, a donde la energí­a solar no llega. Esto confirma los resultados anteriores obtenidos por la sonda Galileo cuando penetró en la atmósfera de Júpiter en diciembre de 1995. Aunque las regiones estudiadas son meteorológicamente diferentes, todo apunta a que corrientes en chorro de Júpiter se extienden en profundidad, y sugieren que la fuente de energí­a interna juega un papel importante en su generación , indica Sínchez-Lavega.

La comparación de lo ahora observado con los dos casos anteriores, acaecidos en 1975 y 1990, muestra sorprendentes similitudes y coincidencias aún sin explicar. Las tres erupciones han tenido lugar con una recurrencia de unos 15 a 17 años, un perí­odo extraño a Júpiter, pues no tiene relación con ninguno de los periodos naturales de este planeta. Las tormentas surgieron en el pico del jet, donde la velocidad es míxima, no algo mís al Norte o al Sur. Las tormentas siempre han sido dos (ni una mís ni una menos), y finalmente siempre se movieron en todos los casos a la misma velocidad. Si en el futuro somos capaces de resolver este rompecabezas, probablemente llegaremos a comprender los misterios que se encierran bajo las nubes de Júpiter , indica Sínchez-Lavega.

La atmósfera del planeta gigante gaseoso Júpiter, que tiene diez veces el tamaño de la Tierra y cuyo dí­a dura solo 10 horas, se encuentra en un estado permanente de agitación. La circulación estí dominada por un sistema de corrientes en chorro, jets , alternantes con la latitud que distribuye sus nubes en franjas claras y oscuras paralelas al ecuador, todos ellos fenómenos de naturaleza es desconocida. Los cambios en las bandas de nubes son a veces violentos, desparramíndose y circunvalando el planeta. Su origen así­ como el de la fuente de energí­a que genera las bandas de nubes y las corrientes en chorro es materia de controversia entre los meteorólogos y cientí­ficos planetarios. Pueden generarse por la deposición de la radiación solar como en la Tierra, o por la intensa fuente de energí­a interna que emana del interior de Júpiter, o quizís por una combinación de los dos.

Conocer los mecanismos que operan en estos fenómenos es importante para la meteorologí­a terrestre que es pródiga en tormentas y donde las corrientes en chorro dominan la circulación atmosférica. En este sentido Júpiter representa un laboratorio natural en donde los cientí­ficos pueden estudiar la naturaleza e interrelación entre los jets, las tormentas y los fenómenos atmosféricos violentos.

Los ladrillos de la vida tambien se originaron en Marte

Posted by renegarcia on 31 Enero, 2008 22:04

Los ladrillos de la vida tambien se originaron en Marte

Previamente, los cientí­ficos habí­an pensado que el material orgínico del ALH 84001 habí­a sido llevado a Marte por los impactos de meteoritos o, mís especulativamente, que se originó de antiguos microbios marcianos.

El equipo de investigación hizo un estudio exhaustivo del meteorito ALH 84001 y comparó los resultados con los datos de rocas que guardan ciertas similitudes, encontradas en Svalbard, Noruega. Las muestras de Svalbard se produjeron en volcanes que hicieron erupción en un clima írtico helado hace aproximadamente un millón de años, en una situación que posiblemente imita algunas de las condiciones iniciales en Marte.

El material orgínico aparece dentro de diminutas esferas de minerales de carbonatos, tanto en las rocas marcianas como en las terrestres explica Andrew Steele, autor principal del estudio. Encontramos que el material orgínico estí estrechamente asociado con el óxido férrico del mineral denominado magnetita, que es la clave para entender cómo se formaron estos compuestos .

El material orgínico en las rocas de Svalbard se originó cuando los volcanes hicieron erupción bajo condiciones de congelación. Durante su enfriamiento, la magnetita actuó como un catalizador para formar compuestos orgínicos a partir de fluidos ricos en dióxido de carbono (CO2) y agua (H2O). Esto ocurrió en condiciones donde no es probable que existiera ninguna forma de vida. La asociación de carbonato, magnetita y material orgínico en el meteorito marciano ALH 84001 es muy similar. í‰ste es el primer estudio que muestra que Marte es capaz de formar compuestos orgínicos.

El meteorito ALH 84001. (Foto: NASA)
Los resultados de este estudio demuestran que la actividad volcínica en un clima helado puede producir compuestos orgínicos , subraya el coautor Hans E.F. Amundsen, de la compañí­a Earth and Planetary Exploration Services. Esto implica que los bloques esenciales de la vida se pueden formar en planetas rocosos y frí­os en muchas partes del universo .

Los resultados de este estudio allanan el camino para la misión MSL (Mars Science Laboratory, o Laboratorio Cientí­fico a Marte) en el año 2009. Ahora sabemos que Marte puede producir esos compuestos orgínicos. Una de las metas de la misión es identificar sustancias orgínicas y sus fuentes, así­ como detectar moléculas relacionadas con la vida. Sabemos que allí­ existen. Sólo tenemos que encontrarlas , explica Steele, miembro del equipo que se ocupa del SAM (Sample Analysis on Mars, o Anílisis de Muestras en Marte), uno de los instrumentos a bordo del MSL.

El sistema planetario de gliese 581 es estable

Posted by renegarcia on 31 Enero, 2008 22:02

El sistema planetario de gliese 581 es estable

Dos planetas en torno a Gliese 581 (una enana roja de tipo M), tienen masas de quizís entre 5 y 8 veces la de la Tierra. Dada su distancia a su estrella progenitora, estos planetas, Gliese 581c y Gliese 581d, estín dentro de la zona habitable alrededor de la estrella, o sea ni demasiado cerca ni demasiado lejos como para imposibilitar la existencia de agua lí­quida en la superficie de los planetas en ella ubicados.

El estudio, realizado por Hervé Beust y Xavier Delfosse (LAOG, Francia), Xavier Bonfils (CAAUL, Portugal), y Stephane Udry (Observatorio de Ginebra, Suiza), se ha centrado en analizar la estabilidad dinímica del sistema planetario Gliese 581. Este asunto es muy importante con respecto a la habitabilidad potencial de esos planetas porque la evolución a largo plazo de las órbitas planetarias puede regular el clima.

Las perturbaciones gravitatorias mutuas entre planetas diferentes estín presentes en cualquier sistema planetario con mís de un planeta. En nuestro sistema solar, bajo la influencia de los otros planetas, la órbita de la Tierra evoluciona periódicamente desde una forma circular hasta una que es ligeramente excéntrica. Esta variación ya basta para activar los ciclos alternados de eras cílidas y eras glaciales. Cambios orbitales mís drísticos podrí­an haber impedido el desarrollo de la vida en la Tierra.

Beust y sus colegas han calculado las órbitas del sistema Gliese 581 en un intervalo de 100 millones de años y han comprobado que el sistema parece dinímicamente estable, mostrando cambios orbitales periódicos comparables a los de la Tierra. De modo que todo apunta a que el clima en esos planetas es estable.

Por otra parte, la posible habitabilidad de uno de estos planetas, a la luz de otros estudios, es muy interesante debido a que la estrella central es una estrella enana roja del tipo M. Alrededor del 75 por ciento de todas las estrellas en nuestra galaxia son de tipo M. Las estrellas de esta clase duran mucho tiempo (potencialmente, decenas de miles de millones de años), son estables y usan hidrógeno para su reactor nuclear.

Durante mucho tiempo se consideró que las estrellas de tipo M eran pobres candidatas para albergar planetas habitables. Una de las razones era porque los planetas ubicados en la zona habitable de las estrellas M estín tan cerca de ellas que la gravedad de éstas provoca en los planetas que su rotación se adapte de tal modo a su movimiento de traslación que siempre presentan la misma cara a su estrella, mientras que el otro lado estí sumido en una oscuridad perpetua, lo que podrí­a acarrear que la atmósfera se condensara irreversiblemente.

Otro motivo de esa poca confianza que hasta hace poco existí­a sobre la habitabilidad de sistemas con una estrella de tipo M era que durante su fase temprana dichas estrellas tienen una intensa actividad magnética asociada con violentas erupciones solares y altos flujos de rayos X y de los ultravioleta de la franja mís cercana a los X, que podrí­an erosionar las atmósferas planetarias. Sin embargo, recientemente, diversos estudios teóricos han revelado que el entorno de las estrellas de tipo M pudiera no impedir que estos planetas alberguen vida. Desde entonces, las estrellas de tipo M se han vuelto muy interesantes para los astrónomos porque los planetas potencialmente habitables que giran a su alrededor son mís fíciles de descubrir, usando las técnicas basadas en la velocidad radial y en los trínsitos, que los planetas de esa misma clase alrededor de estrellas como el Sol.

Representación gráfica de conjuntos inmensos de datos para detectar peligros

Posted by renegarcia on 31 Enero, 2008 22:01

Representación grífica de conjuntos inmensos de datos para detectar peligros

El problema fue que la mayorí­a de tales pepitas estaban ocultas en medio de una avalancha de datos que llegaron mís rípido de lo que los analistas podí­an procesar. La recogida de datos de un dí­a podrí­a llenar mís de 6 millones de iPods de 160 gigas. Lo que es mís, como las personas, las pepitas algunas veces discrepan. Y, como una historia contada y recontada que se va distorsionando, sus mensajes cambiaron, a veces de manera imperceptible.

Finalmente, la mayorí­a de las pepitas estín bajo la forma de datos difusos no estructurados. Por ejemplo, el mismo rostro puede aparecer en tres videos de vigilancia. Tales indicios, como la mayorí­a, no vienen convenientemente empaquetados en una hoja de cílculo ordenada o en un texto escudriñable letra a letra; deben ser inferidos a partir de fotos, videos y voces.

Para impedir un próximo 11-S, los analistas deben mezclar, por así­ decirlo, el ojo enciclopédico de Google con el genio deductivo de Sherlock Holmes.

A finales del siglo pasado, Edward Tufte catalogó formas de visualizar datos estructurados (por ejemplo, horarios de trenes) o similares (por ejemplo, tasas de mortalidad). Hoy en dí­a, los investigadores de la Dirección de Ciencia y Tecnologí­a del Departamento de Seguridad Nacional de Estados Unidos estín creando formas de apreciar datos difusos como una imagen tridimensional donde los indicios de amenazas pueden resaltar de entre todo lo demís.

Se estín explorando diversas técnicas para ayudar a analizar las montañas de datos. (Foto: DHS S&T)
El emergente campo del anílisis visual lleva ahora el trabajo de Tufte a su siguiente fase. Los investigadores que trabajan en esta labor estín automatizando la forma en que los analistas reconocen y valoran las amenazas potenciales. Los matemíticos, lingí¼istas y expertos en lógica hacen que el universo colectivo de datos asuma una forma significativa. Ellos le asignan brillo, color, textura, y tamaño a miles de millones de datos conocidos o supuestos, y crean reglas para integrar estos valores de forma que resalten las amenazas. Por ejemplo, las grabaciones de video de un dí­a, llamadas de teléfonos móviles, fotos, registros bancarios, salas de chat en internet y mensajes de correo electrónico, pueden tomar la forma de una nube gris azulada. Si un gran peligro acecha a Los íngeles y a Boston, estas ciudades son resaltadas en un mapa de Estados Unidos.

Las imígenes estíticas de un mes pueden ser animadas como una pelí­cula que presenta de manera acelerada el paso del tiempo, y en la que una cordillera creciendo revela una amenaza en auge.

Pasarín años antes que el anílisis visual pueda detectar automíticamente pistas a partir de datos difusos tales como el video, pero se van haciendo progresos hacia esa meta.

Asombrosas propiedades de una nueva fibra de cristal fotónico

Posted by renegarcia on 31 Enero, 2008 22:00

Asombrosas propiedades de una nueva fibra de cristal fotónico

Este supercontinuo es una de las íreas mís fascinantes de la fí­sica aplicada actual, y la capacidad para crearlo con facilidad tendrí un efecto significativo en diversas tecnologí­as.

Entre ellas figuran las telecomunicaciones, donde se crearín sistemas ópticos cientos de veces mís eficientes que los existentes, porque las señales podrín transmitirse y procesarse simultíneamente en muchas longitudes de onda.

El supercontinuo generado en las fibras de cristal fotónico también sirve para crear relojes ópticos tan exactos que sólo pierden o ganan un segundo cada millón de años. Dos fí­sicos, en EE.UU. y Alemania, compartieron el premio Nobel de Fí­sica en el 2005 por su trabajo en esta írea.

A pesar de estas aplicaciones, el mecanismo subyacente en la generación del supercontinuo ha estado poco claro, lo que ha impedido a los fí­sicos utilizarlo mís extensamente.

Dmitry Skryabin. (Foto: U. Bath)
Pero ahora, investigadores de la Universidad de Bath han descubierto la razón de gran parte del ensanchamiento del espectro.

Dmitry Skryabin y Andrey Gorbach, del Centro para la Fotónica y los Materiales Fotónicos del Departamento de Fí­sica, han encontrado que la generación de luz en todo el espectro visible es producida por la interacción entre el pulso convencional de luz y los denominados solitones, ondas especiales de luz que mantienen su forma cuando viajan por la fibra.

Hasta ahora, la creación y manipulación del supercontinuo en las fibras de vidrio fotónico se ha logrado de un modo un tanto improvisado, sin saber exactamente por qué se producí­an los diferentes efectos. Pero a partir de esta nueva investigación, los cientí­ficos debieran ser capaces de tener mucha mayor precisión cuando lo utilicen.

Skryabin cree que la interacción entre los pulsos de luz y los solitones tiene similitudes con la forma en que la gravedad actúa sobre los objetos.

Nueva clase de vehículos guiados por control remoto para operaciones de rescate

Posted by renegarcia on 31 Enero, 2008 21:59

Nueva clase de vehí­culos guiados por control remoto para operaciones de rescate

Policí­as, bomberos y otros expertos en emergencias que desempeñan actividades crí­ticas cuando se desencadenan desastres naturales o provocados por el hombre, en el futuro podrín salvar mís vidas con la ayuda del Gizmo , un dispositivo avanzado que incluye comunicaciones móviles inalímbricas.

Rodrí­guez es el ingeniero principal del Gizmo. í‰ste, que parece un cruce entre un camión de juguete con control remoto y un vehí­culo para un desembarco lunar, puede transformar en el futuro la respuesta a las catístrofes recolectando y transmitiendo en tiempo real cualquier información que necesite el personal de emergencia a través de cualquier sistema de comunicación que estén utilizando.

En casi cualquier emergencia, lo mís importante es tener información inmediata y exacta. En el futuro, Gizmo podrí ir a cualquier parte por sí­ mismo y enviar en tiempo real cualquier información que se pueda necesitar.

Rodrí­guez espera construir muchas variedades de Gizmos, entre ellas una capaz de volar. Los dispositivos podrín ir a cualquier lugar que resulte demasiado peligroso para los humanos, incluyendo emergencias urbanas tales como toma de rehenes, ataques terroristas o el derrumbe de un edificio. El Gizmo actual es del tamaño de un camión de juguete dirigido por control remoto. Pero entre los futuros modelos los puede haber mís pequeños (para que, por ejemplo, puedan entrar sin ser descubiertos en un recinto donde se tiene atrapados a rehenes), y también otros mucho mís grandes, como un camión de tamaño real que podrí­a penetrar en íreas azotadas por catístrofes tales como un huracín.

Javier Rodrí­guez Molina. (Foto: UCSD)
Trabajando con Ramesh Rao, un experto de reputación internacional en tecnologí­a de emergencias, Rodrí­guez dirige ahora un equipo de colaboradores que construye Gizmos, los cuales crean su propia burbuja de red inalímbrica dondequiera que van. Un Gizmo puede crear una red inalímbrica de 200 metros de diímetro; varios trabajando en conjunto pueden crear una red mucho mís grande.

Uno de los mayores problemas para el personal de salvamento en cualquier situación de emergencia es perder las comunicaciones entre ellos y no saber qué estí pasando dentro de un írea peligrosa. Así­ que Rodrí­guez y sus colegas se concentraron en la construcción de los Gizmos con la idea de que fuesen capaces de recabar información precisa en situaciones de emergencia y de transmitirla de inmediato a los miembros de los equipos de rescate, utilizando para ello cualquier sistema de comunicaciones que esté operativo.

Los datos reunidos por los Gizmos pueden reenviarse a través de la conexión de red inalímbrica a cualquier parte, ya sea a un puesto de la policí­a a una manzana de distancia o a un laboratorio de investigaciones en el otro lado del mundo. Los Gizmos pueden ser controlados por teléfono móvil, ordenador portítil, e incluso mediante un joystick para videojuegos conectado a un ordenador. Aceptan desde Bluetooth hasta cualquier tipo de transmisor inalímbrico de emergencia que el personal esté utilizando.

La plataforma de cada Gizmo puede equiparse con cualquier dispositivo, como címaras de alta definición, micrófonos ultrasensibles, sensores que detecten gases peligrosos o altos niveles de radiación o de calor, y un brazo robótico manejable por control remoto que pueda recoger muestras. Toda la información que reúnan de este modo la pueden enviar a cualquier dispositivo de comunicación.

Si un sistema de comunicación falla, el personal de emergencias puede cambiar a otro. Como cualquier sistema inalímbrico de internet, los Gizmos pueden enviar información a través de paredes o de otros obstículos.

Otra meta que persigue Rodrí­guez es que los Gizmos sean, en general, bastante baratos (por debajo de los mil dólares), y que sean fabricados con muchas piezas fíciles de reemplazar, de modo que se les pueda producir en masa. La idea es que cualquier cuerpo de bomberos, o de policí­a, u otras entidades al cargo de servicios de emergencia pueda comprarlos sin dificultad, y reemplazar en un plazo muy breve a aquellos que resulten destruidos en el cumplimiento de sus arriesgadas misiones

Por ahora, los Gizmos son vehí­culos con ruedas, pero Rodrí­guez y sus colaboradores ya estín construyendo uno con cadenas de oruga para que pueda subir escaleras o avanzar sobre terrenos con desniveles y obstículos.

Las aplicaciones de los Gizmos pueden ir incluso mís allí de las tareas de salvamento. Se les podrí­a emplear en tareas que van desde vigilancia rutinaria de seguridad hasta ayudar en excavaciones arqueológicas delicadas.

Nuevo biochip podría reemplazar la experimentación con animales

Posted by renegarcia on 31 Enero, 2008 21:58

Nuevo biochip podrí­a reemplazar la experimentación con animales

El biochip contiene una suspensión de mís de mil cultivos de células humanas en un gel tridimensional. Cada cultivo celular es capaz de evaluar la toxicidad de un producto quí­mico diferente.

Según investigadores de la Universidad de California en Berkeley, el Instituto Politécnico Rensselaer y la empresa Solidus Biosciences, Inc., de Troy, Nueva York, los cultivos de células de la piel en este biochip, denominado DataChip, podrí­an utilizarse para comprobar con rapidez si los nuevos productos quí­micos son tóxicos o pueden irritar la piel.

Agregando otros tipos de células, como las del pulmón o las del corazón, y combinando el DataChip con otro biochip (el MetaChip) que los investigadores crearon hace varios años, las compañí­as de cosméticos o productos quí­micos también podrí­an probar si sus productos son tóxicos para otros órganos, no sólo para la piel.

El DataChip extiende las capacidades del MetaChip y le permite probar los efectos tóxicos de los productos quí­micos y sus metabolitos en todo el cuerpo. í‰ste es un paso importante hacia el reemplazo de los animales para evaluar la seguridad de un producto, así­ como hacia un sistema personalizado que pueda predecir la toxicidad de los medicamentos en individuos concretos.

El DataChip en funcionamiento. (Foto: Moo-Yeal Lee/Rensselaer Polytechnic Institute)
Para las compañí­as farmacéuticas, la combinación del MetaChip y el DataChip ofrece una forma rípida de predecir si un producto candidato para ser utilizado como medicamento, o sus metabolitos, son tóxicos. Los chips también permitirín a las compañí­as quí­micas cumplir con la nueva legislación que estipula la aplicación de anílisis de toxicidad a los productos quí­micos.

Las compañí­as farmacéuticas son sólo uno de los tipos de usuarios potenciales.

Dentro de los próximos 5 a 10 años, cuando el costo de secuenciar todos los genes de una persona se vuelva bastante asequible, las personas podrín disponer del anílisis de su genoma individual para así­ obtener la información sobre los tipos y niveles de las enzimas del hí­gado que determinan cómo reaccionarín a medicamentos especí­ficos, y reproducir entonces este perfil en un MetaChip para que éste revise todos los medicamentos antes de que se les administren, determinando las dosis eficaces y seguras.

Cómo la bacteria del ántrax (carbunclo) elude nuestras defensas inmunológicas

Posted by renegarcia on 31 Enero, 2008 21:55

Cómo la bacteria del íntrax (carbunclo) elude nuestras defensas inmunológicas

El íntrax es causado por la bacteria Bacillus anthracis, y afecta a mamí­feros, incluidos los humanos. La B. anthracis sobrevive en el entorno en forma de esporas que, una vez que han entrado en el organismo, pueden desarrollarse y dar lugar a la nefasta acción bacteriana. Estas bacterias se multiplican con notable rapidez, produciendo toxinas. Los efectos, si no se aplica el debido tratamiento médico, son mortales en el cien por cien de los casos de las infecciones por inhalación. Incluso aplicando el tratamiento, que consiste en terapia con antibióticos y cuidados intensivos, no siempre se logra evitar un desenlace fatal.

En un trabajo anterior, los investigadores demostraron in vitro y también in vivo que existe una capacidad natural para combatir a la bacteria del íntrax. Los cientí­ficos, de hecho, demostraron que las células del sistema inmunológico, llamadas macrófagos, producen una enzima con propiedades bactericidas. En los pulmones, esta enzima se produce en suficiente cantidad como para destruir a la B. anthracis después de la inhalación.

En sus experimentos, han demostrado incluso que inyectando la enzima en ratones infectados es posible lograr protegerles. Sin embargo, a pesar de la capacidad de producir de modo natural esta enzima, la infección con B. anthracis por medio de la inhalación sigue siendo mortal si no se trata. Por lo tanto, es de una gran importancia determinar el o los mecanismos por los que la B. anthracis interfiere con la defensa natural del organismo atacado por ella.

Los investigadores han descubierto que una de las toxinas secretadas por la bacteria le permite contrarrestar la acción de la enzima protectora. De hecho, esta toxina inhibe la sí­ntesis de esa enzima por los macrófagos pulmonares, lo cual reduce su capacidad de combatir a los bacilos, pudiendo entonces activarse las esporas del B. anthracis sin que encuentren resistencia.

Habiendo dilucidado los mecanismos que intervienen en el ímbito molecular en la inhibición de la sí­ntesis de la enzima, los investigadores esperan ahora poder identificar nuevos blancos terapéuticos contra el íntrax. Por ejemplo, el uso de la propia enzima protectora, que elimina a la bacteria mucho mís rípidamente que los antibióticos administrados hoy en dí­a, podrí­a constituir una estrategia interesante.


Memoria electrónica mil veces más veloz y capaz de guardar datos durante cien mil años

Posted by renegarcia on 31 Enero, 2008 21:53

Memoria electrónica mil veces mís veloz y capaz de guardar datos durante cien mil años

Ritesh Agarwal, Se-Ho Lee y Yeonwoong Jung han desarrollado un nanocable autoensamblable de teluro de antimonio y germanio, un material con cambio de fase que alterna entre estructuras amorfas y cristalinas, la clave para leer y escribir memorias de ordenadores. La fabricación de los nanodispositivos, de apenas 100 ítomos de diímetro, fue realizada sin la litografí­a convencional, proceso de fabricación un tanto burdo que utiliza productos quí­micos fuertes y que produce con frecuencia materiales inutilizables, con limitaciones de espacio, tamaño y eficiencia.

En lugar de la litografí­a convencional, los investigadores usaron autoensamblaje, un proceso en el cual los reactantes quí­micos se cristalizan a bajas temperaturas mediante la acción de nanocatalizadores metílicos, para formar espontíneamente nanocables de 30-50 nanómetros de diímetro y 10 micrómetros de longitud, y fabricaron entonces dispositivos de memoria en substratos de silicio.

Los resultados de las pruebas han mostrado un consumo extremadamente menor de energí­a para la codificación de datos (0,7 mW por bit). También han demostrado que la escritura, borrado y recuperación de datos (50 nanosegundos) es mil veces mís rípida que en las memorias Flash convencionales. E incluso apuntan a que el dispositivo no perderí información después de unos 100.000 años de uso, todo ello con el potencial de materializar dispositivos de memoria no volítil con densidades del orden de los terabits.

Esta nueva forma de memoria representa una posible revolución en la manera en que accedemos a la información y la almacenamos.

La memoria de cambio de fase, en general, se caracteriza por una lectura/escritura mís rípida, mejor durabilidad y construcción mís sencilla en comparación con otras tecnologí­as de memoria tales como la Flash. El desafí­o ha sido reducir el tamaño de los materiales de cambio de fase a través de técnicas litogríficas convencionales sin dañar sus propiedades útiles. Los nanocables de cambio de fase, como los creados por los investigadores de la Universidad de Pensilvania, brindan una nueva estrategia útil para lograr memorias ideales que proporcionen un control de los datos almacenados eficiente y duradero, varios órdenes de magnitud por encima de las tecnologí­as actuales.

Las primeras estrellas ¿fueron objetos exóticos alimentados por materia oscura?

Posted by renegarcia on 31 Enero, 2008 21:52

Las primeras estrellas ¿fueron objetos exóticos alimentados por materia oscura?

En el estudio se calculó cómo el nacimiento de las primeras estrellas, hace casi 13 mil millones años, pudo haber estado influenciado por la presencia de la materia oscura, todaví­a no observada ni identificada, que los cientí­ficos creen forma la mayor parte de la materia del universo.

Los resultados alteran drísticamente la estructura teórica actual sobre la formación de las primeras estrellas , asevera el astrofí­sico Paolo Gondolo, profesor de fí­sica de la Universidad de Utah.

Es concebible incluso que algunas de esas gigantescas estrellas oscuras todaví­a sigan existiendo hoy, y aunque no emitan luz visible podrí­an ser detectadas porque deben emitir rayos gamma, neutrinos y antimateria, y estar asociadas a nubes de hidrógeno molecular frí­o que normalmente no albergarí­an partí­culas con tales energí­as.

Sin simulaciones detalladas, no es posible predecir con cierto grado de fiabilidad la evolución posterior de las estrellas oscuras. De modo que estas estrellas oscuras pudieron durar meses, o varios centenares de millones de años, o incluso seguir existiendo todaví­a después de miles de millones de años.

Concepto artí­stico de una estrella oscura invisible, vista en el infrarrojo. (Foto: The University of Utah)
Gondolo dirigió el estudio con la colaboración de la astrofí­sica Katherine Freese de la Universidad de Michigan, en Ann Arbor, y de Douglas Spolyar, de la Universidad de California, en Santa Cruz.

Algunos estudios han considerado el papel de la materia oscura en la evolución del universo temprano, pero el de Gondolo y sus colaboradores es el primero que examina el posible papel de la materia oscura en la formación de las primeras estrellas.

Los cientí­ficos saben que la materia oscura existe porque las galaxias giran mís deprisa de lo que puede explicarse por la materia visible dentro de ellas. También las observaciones hechas por satélites, globos sonda y telescopios han llevado a la estimación de que toda la materia visible representa sólo el 4 por ciento del universo, y que también estí formado por un 23 por ciento de materia oscura y un 73 por ciento de energí­a oscura , una fuerza todaví­a desconocida que ayuda al universo a expandirse.

Las WIMPs, partí­culas masivas de interacción débil, estín entre los principales candidatos para la materia oscura. Los neutralinos son un tipo de WIMP cuya existencia predicen las teorí­as mís aceptadas que buscan explicar el origen de la masa en el universo.

La mayorí­a de los cientí­ficos cree que el universo comenzó a existir hace unos 13 mil millones de años, en una súbita expansión del tiempo y el espacio conocida como el Big Bang .

Después de esa explosión, pequeñas fluctuaciones en la temperatura provocaron que parte de la materia mís temprana empezara a agruparse en un proceso acelerado por la gravedad, y eso produjo las primeras estrellas y galaxias. La materia era fundamentalmente oscura pero también incluí­a materia normal en la forma de los gases hidrógeno y helio.

La teorí­a convencional de cómo nacieron las primeras estrellas sostiene que los ítomos como el hidrógeno y el helio se agruparon y se arremolinaron en las nubes protoestelares, que empezaron a enfriarse, haciendo que las nubes se contrajeran y se hicieran mís densas. El enfriamiento y la contracción de la estrella embrionaria continúan hasta que comienza la fusión del hidrógeno en helio, encendiendo así­ el reactor de fusión que opera en nuestro Sol y en otras estrellas.

Para el nuevo estudio, los astrofí­sicos calcularon cómo la materia oscura habrí­a afectado a la temperatura y a la densidad del gas que se condensó para formar las primeras estrellas.

Los resultados sugieren que los neutralinos de la materia oscura interactuaron aniquilíndose entre sí­, produciendo partí­culas subatómicas denominadas quarks, y sus homólogos de antimateria, los antiquarks. Esto generó calor. Cuando una nube protoestelar de hidrógeno y helio tendí­a a enfriarse y contraerse, la materia oscura la mantení­a caliente y expandida, impidiendo que la fusión encendiera la estrella.

El calor puede neutralizar el enfriamiento, y de ese modo el objeto que irí­a camino de convertirse en una estrella normal deja de contraerse durante algún tiempo y forma una estrella oscura, entre unos 80 y 100 de millones de años después del Big Bang. í‰ste es el resultado principal del estudio.

Las estrellas oscuras contendrí­an sobre todo materia normal, siendo la mayor parte moléculas de hidrógeno y helio, pero serí­an inmensamente mís grandes y mucho menos densas que el Sol y otras estrellas. Esas estrellas oscuras debieron haber irradiado rayos infrarrojos, que son bísicamente calor.

En especial, llama la atención su colosal tamaño, con diímetros que van como promedio desde 4 veces la distancia entre el Sol y la Tierra hasta 2.000 veces esa distancia, lo bastante grandes para tragarse 15.000 sistemas solares como el nuestro.

Los quarks y los antiquarks producidos dentro de la estrella oscura a su vez generarí­an partí­culas descendientes, incluyendo fotones de rayos gamma, neutrinos y partí­culas de antimateria tales como los positrones y los antiprotones. A simple vista, no se puede ver una estrella oscura. Pero su radiación nos freirí­a.

Las estrellas oscuras tienen algunas implicaciones importantes para la astrofí­sica. Representan una nueva fase en la evolución de estrellas. Por otra parte, su posible existencia podrí­a ayudar a localizar e identificar la materia oscura. Los rayos gamma, los neutrinos y la antimateria tienen firmas muy tí­picas de energí­a si provienen de la materia oscura.

Asimismo, las estrellas oscuras podrí­an mejorar la comprensión de cómo se formaron los elementos pesados. Supuestamente, las primeras estrellas fueron la cuna de tales elementos, produciéndolos por medio de la fusión nuclear. Pero si las estrellas oscuras existieron y no evolucionaron después en estrellas normales, entonces no fabricaron el carbono. Quizí el carbono vino de otras estrellas, tal vez de las convencionales que se formaron donde no habí­a materia oscura cercana.

Las estrellas oscuras también pueden explicar por qué los agujeros negros se formaron mucho mís rípido de lo esperado. Quizís estos cadíveres de estrellas que se vuelven densos hasta el punto de que su descomunal campo gravitatorio impide escapar incluso a la luz, ya comenzaron a existir tan sólo unos centenares de millones de años después del Big Bang, aunque las teorí­as actuales sostienen que tardaron mucho mís tiempo en formarse. Las estrellas oscuras pudieron ayudar a acelerar el proceso. Ellas pudieron colapsarse muy temprano en agujeros negros porque se formaron en una época muy antigua del universo y es posible, según una hipótesis que se baraja, que fuesen muy efí­meras.

Otra posibilidad es que las estrellas oscuras durasen un largo tiempo pero que acabaran convirtiéndose en estrellas convencionales.

Gondolo y sus colegas creen que el gas que se enfrí­a y la materia oscura que lo calienta dentro de una estrella oscura pueden permanecer en equilibrio permitiendo que éstas sobrevivan, aunque eso depende de que sean correctas ciertas suposiciones sobre la masa de los neutralinos.

Análisis de núcleos de hielo tibetanos sugiere que un campo de hielo se está derritiendo

Posted by renegarcia on 31 Enero, 2008 21:51

Anílisis de núcleos de hielo tibetanos sugiere que un campo de hielo se estí derritiendo

En el 2006, un equipo de especialistas estadounidenses y chinos realizó unas perforaciones que permitieron extraer cuatro núcleos de hielo de la cumbre de un gran glaciar de 6.050 metros de altitud en la meseta tibetana. Los núcleos fueron sometidos a un largo y detallado anílisis.

Los investigadores han descubierto que estos núcleos de hielo carecen de los rasgos radiactivos distintivos que marcan virtualmente todos los otros núcleos de hielo extraí­dos en el resto del globo.

Esa ausencia de la radioactividad originada como precipitación radiactiva por culpa de las numerosas pruebas nucleares atmosféricas efectuadas durante los años cincuenta y sesenta, proporciona sistemíticamente a los investigadores una referencia para calibrar cuínto hielo nuevo se ha acumulado en un glaciar o campo de hielo.

Los investigadores analizan sistemíticamente núcleos de hielo buscando muchos indicadores: partí­culas, polvo, isótopos de oxí­geno, etc. Con ellos es posible averiguar datos importantes sobre el clima que existí­a en el pasado en el lugar del que se extrae el núcleo.

Las nieves tibetanas estudiadas. (Foto: ©Thomas Nash 2007)
A Lonnie Thompson, profesor de ciencias de la Tierra en la Universidad Estatal de Ohio e investigador del Centro Byrd de Investigaciones Polares, y sus colegas, les preocupa esta pérdida masiva de aguas de deshielo, ya que una tendencia así­ impactarí­a de manera nefasta en los rí­os hindúes principales como el Ganges, el Indo y el Brahmaputra, que proveen de agua a un sexto de la población del mundo.

Hay aproximadamente 12.000 kilómetros cúbicos de agua dulce almacenados en los glaciares del Himalaya.

Las señales de radiactividad Beta, del estroncio-90, cesio-136, tritio (hidrógeno-3) y cloro-36, son el remanente de la precipitación radiactiva de las pruebas atómicas efectuadas en las décadas de 1950 y 1960. Estín presentes en los núcleos de hielo recuperados de las regiones polares y de los glaciares tropicales en diversas partes del planeta, y denotan que dichos campos de hielo han retenido nieve caí­da en los últimos 50 años.

En núcleos de hielo extraí­dos en el 2000 en el campo de hielo del sector norte del Kilimanjaro (a 5.890 metros de altura), la precipitación radiactiva de las pruebas atómicas de los años 50 se encontró sólo a 1,8 metros debajo de la superficie.

En el 2006, la superficie de ese campo de hielo habí­a perdido mís de 2,5 metros de hielo sólido (y por ende de registro histórico), incluyendo el hielo que contení­a esa señal. Si los cientí­ficos hubieran extraí­do esas muestras de hielo en el 2006 en lugar de en el 2000, ese horizonte radiactivo estarí­a ausente como lo estí ahora en el campo de hielo estudiado del Himalaya.

Los cientí­ficos estiman que hay unos 15.000 glaciares aposentados en la cordillera del Himalaya, formando el almacén principal de agua dulce en esa parte del mundo. Se espera que el írea total de glaciares en la meseta tibetana se encoja en un 80 por ciento para el año 2030.

La pérdida de genes contribuyó a la evolución humana

Posted by renegarcia on 31 Enero, 2008 21:50

La pérdida de genes contribuyó a la evolución humana

El trabajo ha sido realizado por Jingchun Zhu (especialista en bioinformítica) con la colaboración de David Haussler (profesor de ingenierí­a biomolecular), Zack Sanborn y otros investigadores de la universidad. Es el primer estudio diseñado para buscar en todo el genoma la pérdida relativamente reciente de genes que no tienen copias exactas ni aproximadas en otra parte del genoma. Es probable que éstas sean las pérdidas mís importantes de genes.

La idea de que las pérdidas de genes podrí­an contribuir a la adaptación ha sido manejada anteriormente, pero no se la ha investigado como debiera.

Para encontrar las pérdidas de genes, los investigadores emplearon un software denominado TransMap. El programa comparó los genomas de ratón y de humano buscando genes que presentan cambios lo bastante significativos para hacerlos no funcionales en algún punto del periodo de 75 millones de años transcurrido desde la divergencia de los linajes de ambos organismos.

Como el perro divergió de nuestro ancestro común antes que el ratón, los investigadores emplearon el genoma del perro como referencia externa para filtrar los falsos positivos. Si un gen todaví­a existe en el perro y en el ratón, pero no en los humanos, probablemente existió en el antepasado común y se perdió entonces en el linaje humano.

Jingchun Zhu y Zack Sanborn. (Foto: UCSC)
Utilizando este proceso, identificaron 26 pérdidas de antiguos genes, incluyendo 16 que no se conocí­an previamente.

Luego compararon los genes identificados en el genoma completo del ser humano, el chimpancé, el mono rhesus, el ratón, la rata, el perro y la zarigí¼eya, para estimar la cronologí­a evolutiva relativa a cuando el gen era funcional, antes de que se perdiera. Este anílisis refinó la cronologí­a de la pérdida de los genes y también sirvió como referencia para saber si el gen estaba bien establecido desde bastante tiempo atrís siendo por consiguiente funcional, o si sólo se trataba de la copia de un gen redundante. A través de este proceso, encontraron seis genes que sólo se habí­an perdido en el ser humano.

Después de varios anílisis, los investigadores concluyeron que la pérdida probablemente se produjo en el linaje de los primates, después de la diferenciación del gorila y antes de la del chimpancé.

Los investigadores también identificaron otros genes perdidos en los humanos y que no tení­an ningún homólogo funcional , o sea genes alternativos que pudieran realizar la misma función en el genoma humano. Algunos de estos genes perdidos habí­an sido funcionales durante mís de 300 millones de años.


Generador eléctrico microbiano para cubrir necesidades básicas de electricidad

Posted by renegarcia on 31 Enero, 2008 21:49

Generador eléctrico microbiano para cubrir necesidades bísicas de electricidad

Peter Girguis, profesor de Biologí­a Evolutiva, ha desarrollado una célula de combustible alimentada por la actividad natural de microbios anaerobios. Las células pueden ser fabricadas por sólo unos pocos dólares, poniéndolas al alcance de las personas en zonas empobrecidas del mundo que hoy no tienen acceso alguno a la electricidad.

Aunque el rendimiento energético de estas nuevas células es relativamente bajo, sí­ basta para permitir un alumbrado funcional o para recargar las baterí­as de dispositivos importantes, como por ejemplo los teléfonos móviles, un medio de comunicación de creciente importancia en las zonas donde no existen infraestructuras de telefoní­a fija.

En la Tierra hay 2.800 millones de personas sin electricidad que estín reclamando disponer de ella , subraya Girguis. La mayorí­a de esas personas necesitan la electricidad para la iluminación y las telecomunicaciones .

Los cientí­ficos han estado estudiando en el laboratorio las células de combustible microbianas durante décadas. El objetivo de Girguis ha sido tomar el conocimiento existente y aplicarlo en un dispositivo funcional y barato que pueda ser distribuido en los lugares carentes de electricidad.

Peter Girguis. (Foto: Kris Snibbe/Harvard News Office)
El punto crucial es que estas células de combustible no exigen materiales de calidad superior para operar de modo apropiado, bastíndoles materiales baratos, lo que disminuye significativamente su costo.

Las células de combustible funcionan gracias a una caracterí­stica particular de las bacterias anaerobias. Ellas viven y metabolizan sus alimentos en ambientes sin oxí­geno, produciendo electrones extra que normalmente liberan en el material a su alrededor. Introduciendo ahí­ un electrodo, es posible recolectar esos electrones para crear una pequeña corriente eléctrica.

La célula de combustible de Girguis utiliza un electrodo, cables y una pequeña placa con circuiterí­a, del tamaño de un mazo de cartas. La electricidad fluye desde el electrodo a la placa, y de ahí­ hacia el exterior por una de las dos tomas de corriente existentes en el lado opuesto. Una toma proporciona la energí­a para dispositivos eléctricos como las bombillas de tipo LED (de ultrabajo consumo), mientras el otro tiene un cargador para un teléfono móvil.

Iqbal Quadir (del MIT), quien puso en marcha una compañí­a que ha llevado el servicio de telefoní­a móvil a millones de personas en Bangladesh, permitirí la distribución de las células de combustible microbianas de Girguis como parte de una nueva empresa de generación de energí­a que Quadir estí impulsando.

Sin embargo, deben darse varios pasos antes de que esa implantación sea una realidad. Aunque Girguis ha desarrollado varias células de combustible diferentes, todaví­a no ha empezado a producirlas. Es necesario continuar las investigaciones sobre éstas para ver la diferencia en el rendimiento de las distintas tierras y sedimentos, y qué sucede exactamente cuando la tierra se enriquece con esa materia orgínica.

Un beneficio adicional de la tecnologí­a de las células de combustible es que al no quemar combustibles fósiles, generan energí­a sin producir impactos negativos sobre el clima.

«PERO YO SÍ TE VEO» ...ANALISIS DE CASO

Posted by renegarcia on 31 Enero, 2008 21:48

«PERO YO Sí TE VEO»

Estaba ardiendo una casa. Todos se habí­an salvado, excepto un niño que se encontraba en el segundo piso. La escalera estaba en llamas y llena de humo. No habí­a salida sino por la ventana.

—¡Papí, papí! ¿Cómo voy a escapar? —gritó el niño.

—¡Aquí­ estoy —le gritó a su vez el padre—; déjate caer, que te recibiré en mis brazos! ¡Tí­rate, Carlitos, que yo te recibiré!

Carlos salió a gatas por la ventana, pero allí­ quedó atrapado porque tení­a miedo. Sabí­a que era muy largo el trecho hasta la calle.

—¡Suéltate, déjate caer! —le gritó el padre.

—No puedo verte, papí.

—Pero yo sí­ te veo. Aquí­ estoy. Ten confianza. Suéltate, que yo te salvaré.

—Tengo miedo de caer.

—¡Suéltate, tí­rate! —gritaban otras voces—. Tu padre te recibirí con toda seguridad. No tengas miedo.

Al fin, acordíndose de la fuerza y del amor de su padre, el niño recobró la confianza y se dejó caer. Segundos después, se halló sano y salvo en los brazos de su padre. 1

En el Sermón del Monte, después del padrenuestro en que nos enseña a orar, Jesucristo, el Hijo de Dios, refuerza con una comparación esa relación de padre e hijo que tenemos con el Padre celestial. «¿Quién de ustedes, si su hijo le pide pan, le da una piedra? ¿O si le pide un pescado, le da una serpiente? —dice a modo de interrogación retórica—. Pues si ustedes, aun siendo malos, saben dar cosas buenas a sus hijos —concluye Cristo—, ¡cuínto mís su Padre que estí en el cielo darí cosas buenas a los que le pidan!» 2

Ese poder y ese deseo de Dios de darnos a nosotros sus hijos lo que le pidamos con tal que nos convenga se remonta a los tiempos en que los salmistas de Israel representaban implí­citamente al Señor su Dios como el Padre celestial que, en los momentos de mayor ansiedad, sabe cuidar perfectamente a sus hijos. Uno de los mís citados de esos salmos, que bien pudo haberle infundido aliento tanto a Carlos como a su padre en la anécdota, es el Salmo 121. Dice así­:

A las montañas levanto mis ojos;
¿de dónde ha de venir mi ayuda?
Mi ayuda proviene del Señor,
creador del cielo y de la tierra.

No permitirí que tu pie resbale;
jamís duerme el que te cuida.
Jamís duerme ni se adormece
el que cuida de Israel.

El Señor es quien te cuida,
el Señor es tu sombra protectora.
De dí­a el sol no te harí daño,
ni la luna de noche.

El Señor te protegerí;
de todo mal protegerí tu vida.
El Señor te cuidarí en el hogar y en el camino,
desde ahora y para siempre.

Gracias a Dios, cuando estamos pasando por una prueba, ya sea una calamidad como un incendio, o una crisis moral o financiera, o una enfermedad grave o mortal, podemos acudir a í‰l como nuestro Padre celestial al igual que el salmista de Israel, confiados de que í‰l sí­ nos ve aunque nosotros no podamos verlo a í‰l, y que nos protegerí y nos cuidarí «desde ahora y para siempre». Amén.

1 2 3 4 5 6 7  Siguiente»

recientemente...

archivos

Agregar