Category: Ciencia


El Hombre de Piltdown, el falso eslabon perdido

716px-Sterkfontein_Piltdown_man2

El hombre de Piltdown es conocido por ser uno de los más grandes fraudes en la historia de la paleoantropología, principalmente porque se creyó verdadero durante cuarenta y cinco años, desde que se anunciara su descubrimiento en 1908, hasta 1953 cuando el fraude fue finalmente expuesto. La historia de este engaño comenzó y se basó en unos restos óseos (en concreto un cráneo parcial, un diente suelto y una mandíbula con dientes) descubiertos en Inglaterra en 1912, en Piltdown, un pueblo de Sussex.

Un obrero los encontró en una cantera, y se los entregó al arqueólogo aficionado Charles Dawson, que los presentó, junto con el eminente paleontólogo Smith Woodward (del Museo Británico), en la Sociedad Geológica de Londres. Durante años, se mantuvo el debate sobre el origen de estos restos, y la prensa dijo que muy probablemente correspondieran al eslabón perdido, denominándolo Eoanthropus dawsonii. Estos restos fueron aceptados por la comunidad científica sin mayores análisis, debido principalmente a que era perfecto e idéntico a la idea de aquella época sobre el eslabón perdido.

La idea de esa época era que el eslabón tenía que haber tenido un gran cerebro pero igualmente presentar rasgos simiescos, y evolucionar a posterioriormente a una apariencia humana; idea contraria a la existente ahora y que presentan los fósiles verdaderos. No obstante, comenzaron a surgir cada vez más dudas sobre la antigüedad y el origen de esos restos. Finalmente, el dentista A.T. Marston, determinó que los dientes de ese esqueleto correspondían evidentemente a un orangután, el diente suelto a un mono y el cráneo a un Hominidae (Homo sapiens): a partir de entonces, los análisis del contenido en flúor de los huesos demostraron que el enterramiento había sido intrusivo, así como que el color ferruginoso oscuro de los huesos se debía a un tratamiento químico, para uniformar las diferencias de color entre la mandíbula (más moderna) y el cráneo (más antiguo).

Nadie sabe quién cometió el fraude, y algunos lo atribuyen a los descubridores originales, señalando sobre todo a Dawson, motivado por el hecho de que en las islas británicas no había sido descubierto ningún fósil humano, mientras que en el resto de Europa y fundamentalmente en África sí. Sin embargo, el profesor Douglas dejó a su muerte una cinta magnética en la que señalaba que el autor de la falsificación fue el archifamoso profesor Sollas, que pretendía con ello desprestigiar a su rival Woodward.

A pesar del fraude, se ha erigido, por suscripción popular, en el lugar donde se descubrieron los huesos, un monumento honorífico a estos restos: el propio Woodward asistió a la inauguración. Igualmente, existen teorías diversas que han atribuido la invención a algunos de los hombres más famosos de la época, incluyendo a Arthur Conan Doyle y a Teilhard de Chardin.

Por mucho tiempo se acusó a Dawson de ser el único culpable en el engaño, pero Gould asegura que su investigación muestra que Teilhard, que acababa de ser ordenado sacerdote y que en ese entonces estaba estudiando paleontología, participó en la “conspiración de Piltdown.” Gould dice que algunos de los huesos que se encontraron en las fosas de Piltdown provenían de países en los cuales Teilhard había recogido especímenes en viajes anteriores. Además, en las cartas que Teilhard envió a uno de los científicos que descubrieron el engaño, Gould afirma que Teilhard mintió para ocultar su participación en la intriga.

Fuente: Wikipedia

Video: El hombre de Piltdown

Advertisements

El experimento del pequeño Albert

El pequeño Albert

El experimento del Pequeño Albert es una demostración empírica del procedimiento de condicionamiento clásico realizada por John B. Watson y su colaboradora Rosalie Rayner, en la Universidad Johns Hopkins.

Según describen Watson y Rayner (1920), los objetivos de este experimento eran:

¿Puede condicionarse a un niño para que tema a un animal que aparece simultáneamente con un ruido fuerte?
¿Se transferirá tal miedo a otros animales u objetos inanimados?
¿Cuánto persistirá tal miedo? No lo sabremos hasta finalizar el experimento con el pequeño Albert.

Se lo examinó para determinar si existía en él un miedo previo a los objetos que se le iban a presentar (animales con pelo), examen que fue negativo. Sí se identificó un miedo a los sonidos fuertes (como el producido al golpear una lámina metálica con un martillo fuertemente).

El experimento inició cuando Albert tenía 11 meses y tres días. El diseño era presentarle al pequeño Albert un ratón de color blanco y al mismo tiempo un ruido fuerte (golpeando una barra detrás de la cabeza del niño). Después de varios ensayos, el niño sollozó ante la presencia de una rata, y luego mostró generalización del estímulo ante bloques, un perro, lana, un abrigo, etc.

EI (ruido)  ———–> RI (llanto)

EC (objeto blanco) —-> RC (llanto)
littlealbertDesgraciadamente, el experimento no alcanzó la última fase, es decir, el descondicionamiento, ya que Albert fue sacado de la unidad hospitalaria en que se encontraba antes de su conclusión. Los ensayos habían durado 31 días. Watson había planeado desensibilizar al niño relacionando los objetos que provocaban temor con estímulos agradables. Por ejemplo, la rata blanca con la leche caliente, que los bebés consideran una experiencia amorosa y relajante.

Se dice que el pequeño Albert quedó condicionado respecto a las ratas y los demás objetos que le presentaron durante toda su vida, pero lo cierto es que no se sabe con certeza qué sucedió.

Afortunadamente, en la actualidad no es posible realizar este tipo de experimentos. Casos como el del pequeño Albert abrieron un debate sobre la ética a la hora de experimentar con seres humanos contribuyendo al establecimiento de necesarios límites.

Los conductistas sostienen, con cierto humor, que si Albert hubiese acudido a la consulta de un psicoanalista para superar su posible temor hacia los abrigos de pieles se le convencería de que en su primera infancia tuvo un trauma sexual con su madre.

Para el freudiano, el sexo o el amor son los principales sentimientos de los que surgen las respuestas condicionadas que, más tarde, limitan y distorsionan la personalidad. Sin embargo, en este caso, como hemos visto, el trastorno emocional del adulto no fue determinado por un problema sexual. No obstante, también el conductismo ha sido objeto de crítica por otros psicólogos al ser una escuela que no toma en cuenta cómo se siente el individuo estudiado o qué piensa; se centra esencialmente en qué hace, cuáles son sus reacciones y cómo se puede condicionar.

Fuente: Wikipedia

Video: El pequeño Albert experimento

elojoquetodolove2

Científicos israelíes ponen en marcha la corteza visual dormida con un innovador método de sustitución sensorial.

Investigadores de la Universidad Hebrea de Jerusalén han demostrado que las personas ciegas pueden “ver” y describir objetos, e incluso identificar letras y palabras, usando un sistema que traduce imágenes en sonido. El método permitió que, en tan solo 70 horas de entrenamiento, los invidentes alcanzasen una agudeza visual que, aunque no implicó la activación del sistema oftalmológico del cuerpo, sí activó la red de identificación visual del cerebro. Por Yaiza Martínez.

Se suele pensar que si la corteza visual del cerebro se ve privada de la información visual en la más tierna infancia, posteriormente no podrá desarrollar su especialización funcional y, por tanto, la restauración de la vista en un futuro resultará casi imposible.

Sin embargo, científicos de la Universidad Hebrea de Jerusalén han constatado, usando un equipo fotográfico y sonoro especializado, que las personas ciegas en realidad sí pueden “ver” y describir objetos, e incluso identificar letras y palabras.

El hallazgo ha sido posible gracias a un estudio realizado por un equipo de investigadores dirigido por Amir Amedi, del Edmond and Lily Safra Center for Brain Sciences y del Institute for Medical Research Israel-Canada (IMRIC) de la Universidad Hebrea, en el que se aplicó un nuevo paradigma de entrenamiento para ciegos, basado en dispositivos sensoriales de sustitución (SSD).

Los SSD son soportes sensoriales no invasivos que proporcionan información visual a los invidentes, a través de los sentidos que estos sí tienen. Por ejemplo, un usuario con un SSD visual-auditivo llevará, en un entorno clínico o cotidiano, una cámara en miniatura conectada a un pequeño ordenador (o teléfono inteligente), así como auriculares estéreo.

Este sistema hace que las imágenes se vuelven “sonoras”, gracias a un algoritmo de predicción, lo que permite al usuario escuchar y luego interpretar la información visual procedente de la cámara.

Desarrollo de una gran agudeza visual

Las personas ciegas que participaron en este estudio alcanzaron un nivel de agudeza visual que supera a la establecido por los criterios para la ceguera de la Organización Mundial de la Salud (OMS), informa la Universidad Hebrea de Jerusalén a través de Alphagalileo.

La capacidad “visual” desarrollada por estos individuos, aunque no es convencional en el sentido de que no implicó la activación del sistema oftalmológico del cuerpo, realmente activó la red de identificación visual del cerebro.

Las pruebas realizadas con estas personas demostraron que, tras 70 horas de entrenamiento con el método desarrollado en el laboratorio de Amedi, estas pudieron utilizar con facilidad los SSD para clasificar imágenes en categorías de objetos (rostros, casas, formas del cuerpo, objetos y texturas cotidianas).

Asimismo, los participantes también fueron capaces de establecer la localización de personas, identificar expresiones faciales e, incluso, leer letras y palabras. Los resultados obtenidos han aparecido publicados en el último número de la revista Neuron.

¿Qué sucede en el cerebro cuando se aprende a “ver”?

Por otra parte, los investigadores de la Universidad Hebrea analizaron en este trabajo lo que sucede en el cerebro cuando los ciegos aprenden a ver a partir de sonidos. En concreto, los científicos evaluaron la activación de la corteza visual a partir de la adquisición de agudeza visual, puesto que se suponía que la corteza visual permanece inactiva en ciegos.

Para realizar estas observaciones, Amedi y su equipo utilizaron la tecnología de registro de imágenes por resonancia magnética funcional (fMRI), un procedimiento clínico y de investigación que permite mostrar en imágenes las regiones cerebrales que ejecutan una tarea determinada.

Con la fMRI, los investigadores pudieron medir la actividad neuronal de las personas ciegas de nacimiento que “veían”, gracias a los SSD, imágenes en alta resolución de letras, caras, casas, objetos cotidianos y formas corporales.

Los resultados de estos análisis fueron sorprendentes: se constató que, gracias a los sonidos, no solo se activaba la corteza visual de los invidentes participantes en el estudio, sino que, además, los cerebros de estos mostraban selectividad para aquellas categorías visuales con que clasifican imágenes los cerebros de personas que sí ven.

Además, se constató que una parte específica del cerebro, conocida como el ‘Área de la Forma de Palabra Visual’ (AFPV) – descubierta por vez primera en personas videntes por Laurent Cohen y Stanislas Dehaene del Hospital Pitié-Salpêtrière del INSERM-CEA de Francia- también funcionaba en las personas privadas de vista del estudio.

Se sabe que la AFPV tiene, en personas no ciegas, un papel en la lectura, y que esta área se activa al ver y leer letras, más que ante cualquier otro objeto visual. En el caso de los ciegos analizados, los científicos comprobaron que, después de sólo unas decenas de horas de capacitación con los SSD, estos presentaban una mayor activación de la AFPV ante las letras que para cualesquiera otras de las categorías visuales probadas.

De hecho, la AFPV resultó ser tan plástica y proclive a cambiar, que mostró una actividad incrementada para las letras de los SSD tras menos de dos horas de entrenamiento, en uno de los participantes en el estudio.

“Despertar” la visión en el cerebro

Según Amedi, esto demuestra que “el cerebro adulto es más flexible que lo que pensábamos”. Esta y otras investigaciones recientes han demostrado que múltiples áreas del cerebro no son específicas de un sentido determinado (la visión, el oído o el tacto), sino que, además, pueden compartir varias modalidades.

Todo ello sugiere que, en los ciegos, las áreas cerebrales podrían ser “despertadas” para procesar propiedades y tareas visuales, años después de que estos hayan perdido la vista, e incluso aunque hayan sido ciegos toda la vida, usando las tecnologías y los métodos de entrenamiento adecuados, afirma Amedi.

Los hallazgos realizados también proporcionan la esperanza de que la reintroducción de señales en los centros visuales del cerebro de personas ciegas pueda restaurar la visión de estas. En este sentido, los SSD podrían resultar útiles en la rehabilitación visual del cerebro.

Los SSD podrían usarse, por último, como intérpretes sensoriales que indiquen a los ciegos el significado de señales visuales obtenidas por dispositivos externos, como unos ojos biónicos, concluye Amedi.

Historia de la sustitución sensorial

La sustitución sensorial fue introducida por vez primera en los años 60 por el neurocientífico americano Paul Bach-y-Rita, especializado en la plasticidad cerebral.

Bach y Rita utilizó esta técnica entonces como medio para aprovechar una modalidad sensorial, sobre todo el tacto, para la obtención de información del entorno, de manera que esta pudiera ser usada por otra modalidad sensorial, principalmente la vista.

El primer SSD fue creado por este científico para individuos con ceguera congénita, como herramienta de fomento de la plasticidad cerebral. Desde ese momento, en la sustitución sensorial se han basado muchas investigaciones sobre neurociencia cognitiva y percepción. Además, este método ha contribuido al conocimiento de la función cerebral, la cognición humana y la rehabilitación.

http://m.tendencias21.net/La-activacion-del-ojo-de-la-mente-con-sonidos-permite-a-los-ciegos-interpretar-imagenes_a14147.html

El Informe Kinsey

El Informe Kinsey fue el resultado de un estudio científico publicado en dos libros, Comportamiento sexual del hombre (1948) y Comportamiento sexual de la mujer (1953), por Alfred C. Kinsey, Wardell Pomeroy y otros colaboradores. Se realizó entrevistando a más de 20 000 hombres y mujeres, con un sistema de completa confidencialidad, que respondían un cuestionario anónimo consiguiendo crear una base de datos que describían el comportamiento sexual en el ser humano, generando gran sorpresa en 1948 al sacar a la luz comportamientos que hasta entonces habían permanecido en la más estricta intimidad y de los cuales no se hablaban ni en la comunidad científica ni en la sociedad. Ayudó a desterrar mitos y evidenció que conductas que hasta entonces la mayoría consideraban marginales, o incluso inmorales, eran practicadas por un porcentaje considerable de la población, como fue el caso de la masturbación tanto femenina como masculina, la homosexualidad y bisexualidad o la temprana edad de iniciación sexual.

Lo que más repercusión ha tenido hasta la actualidad es la división en grados de la tendencia sexual, en la que entre la homosexualidad y la heterosexualidad exclusivas se establecieron una serie de grados de bisexualidad, considerados válidos para muchos investigadores hasta hoy y que fueron novedosas en el momento. En el estudio se estableció una escala de 7 grados que van desde la absoluta heterosexualidad hasta la homosexualidad completa, pasando por cinco grados de bisexualidad, donde se afirmaba además que gran parte de la población era en algún grado bisexual, indicando sus porcentajes. Se definió, por ejemplo, que el 60% de los hombres y el 33% de las mujeres habían participado al menos en una práctica homosexual desde los 16 años de edad y que al menos un tercio de los hombres había alcanzado el orgasmo en prácticas homosexuales.

Este informe provoca hasta hoy grandes controversias, sobre todo por los métodos de acceso a la información, la selección de los entrevistados y el origen de la información sobre el comportamiento sexual en niños.

Kinsey murió en 1956 a los 62 años, dejando el Kinsey Institute for Sex Research como un legado a la investigación sexual.

Partes del informe sobre la diversidad en cuanto a la orientación sexual son frecuentemente usadas para respaldar la estimación de que el 10% de la población es homosexual. En lugar de usar tres categorías (heterosexuales, bisexuales y homosexuales) se usaron seis categorías (una séptima categoría, la de asexuales fue agregada por los compañeros de Kinsey).   Los reportes establecieron que cerca del 46% de los sujetos masculinos encuestados habían “reaccionado” sexualmente ante personas de ambos sexos en el curso de sus vidas como adultos, y el 37% ha tenido al menos una experiencia/respuesta homosexual.1 También se estableció que el 11.6% de los hombres blancos encuestados, cuya edad oscilaba entre los 20 y 35 años, fueron valorados con el valor de 3 en la escala, es decir habían tenido igualmente experiencias/respuestas heterosexuales como homosexuales durante toda su vida adulta.2 Además el estudio reportó que el 10% de los hombres estadounidenses que fueron encuestados habían sido “mas o menos” exclusivamente homosexuales por al menos 3 años entre los 16 y 55 años” (es decir estuvieron en el rango 5 o 6 en la escala).3

En cuanto a la mujer, se reportó que el 7% de las mujeres solteras y el 4% de las mujeres en plan de matrimonio encuestadas, cuyas edades iban desde los 20 a 35 años fueron valoradas con el valor de 3 en la escala (tenían igualmente experiencias/respuestas heterosexuales como homosexuales) por ese periodo de sus vidas.4 Además de que del 2 al 6% de las mujeres, cuyo rango de edad iba desde los 20 a los 35 años, eran “mas o menos” exclusivamente homosexuales,5 y del 1 al 3% de las mujeres no casadas cuya edad iba desde los 20 a los 35 años tenían exclusivamente respuestas/experiencias homosexuales.   Las críticas académicas fueron hechas relacionando para probar la selección y la muestra de parcialidad en la metodología de los reportes. Los dos principales problemas citados fueron la significativa porción de muestras que venían de población penal y de prostitutos y que los sujetos que se ofrecieron para ser entrevistados sobre temas tabú, lo cual provocaba que el estudio estuviera propenso a problemas de autoselección. Ambos socavan la utilidad de la muestra en cuanto a determinar la tendencia del total de la población. En 1948, el mismo año de la publicación original, el comité de la Asosiación Estadounidense de Estadística, incluyendo a notables estadistas como John Tukey, condenó el procedimiento de muestreo. Tukey fue quizás el mas crítico, afirmando que “una muestra al azar, de tres personas hubiera sido para el Sr. Kinsey mejor que un grupo de 300 elegidas”.

Kinsey la película

Kinsey es una película estadounidense que relata parte de la vida del sexólogo Alfred Kinsey. Kinsey, con la ayuda de Wardell Pommery, realizó un informe sobre el comportamiento sexual humano, el Informe Kinsey. Su publicación provocó un gran revuelo social en la sociedad estadounidense, que vio cómo se desmitificaban muchos aspectos de la sexualidad humana.   Kinsey fue dirigida en 2004 por Bill Condon, y su reparto está encabezado por Liam Neeson, nominado al Oscar al mejor actor por su interpretación en La lista de Schindler.

El profesor Alfred Kinsey, protagonista de la historia, está siendo entrevistado sobre su historia sexual. Durante la entrevista, dos de los momentos más importantes de la vida de Kinsey son revelados al espectador como flashbacks. Aparecen dos secuencias: una de ellas en su niñez, cuando era boy scout y la otra cuando Kinsey discute con su padre sobre sus intenciones vocacionales. La escena cambia y aparece Kinsey enseñando en la Universidad de Indiana como profesor de biología especializado en la mosca de la agalla, donde la historia comienza. Kinsey se enamora de una estudiante de su clase (interpretada por Laura Linney) y se casa con ella. Ellos tienen tres hijos. Mientras tanto, en la Universidad, el profesor Kinsey, llamado afectuosamente “Prok” (Pro-fesor K-insey) por sus estudiantes graduados, se encuentra con los estudiantes en las horas posteriores a clase para ofrecer consejo sobre temas sexuales. Cuando comienza esta actividad en algunos sectores se le tacha de sucio, pero los estudiantes además de pedir consejo en ocasiones hablan sobre su vida sexual, lo que aumenta el conocimiento de Kinsey sobre el sexo.   En una fiesta de celebración de la publicación del libro de Kinsey sobre la mosca de la agalla, Kinsey se acerca al decano de los estudiantes para crear un curso sobre educación sexual. Momentáneamente, es aprobado. Kinsey comienza enseñando en un pequeño auditorio,no obstante este curso es sólo para profesores, y estudiantes graduados, mayores o casados. Kinsey continúa recabando información en entrevistas personales pero encuentra que esta información está limitada al poco número de gente que entrevistó. Esto lleva al profesor Kinsey a realizar un cuestionario a toda su clase de educación sexual, lo que le hace descubrir la gran disparidad existente entre las prácticas sexuales que realizan y la idea de la sociedad sobre este tema. Después de recibir soporte financiero de la fundación Rockefeller, Kinsey y su equipo viajaron por el país, entrevistando a sujetos para conocer su historial sexual.   Conforme el tiempo pasa el Dr. Kinsey descubre que el sexo que no implica a dos humanos de distinto sexo es más frecuente de lo que originalmente se pensaba. Por ello Kinsey creó una nueva forma de clasificar a los humanos con la escala Kinsey, que clasifica la sexualidad de las personas desde homosexuales a heterosexuales.

Fuente: Wikipedia

Electrónica molecular

La electrónica molecular, a veces llamada moletrónica, es la rama de la ciencia que estudia el uso de moléculas orgánicas en la electrónica.

Los primeros trabajos acerca de la transferencia de cargas eléctricas entre moléculas fueron realizados por Robert Mulliken y Albert Szent-Gyorgi en 1940. Sin embargo, el primer dispositivo moletrónico no fue desarrollado hasta 1974, año en el que se construye un biestable de melanina. En 1988 fue descrita una molécula capaz de actuar como un transistor de efecto campo.

Los recientes avances en nanotecnología y el descubrimiento de polímeros conductores y semiconductores, merecedor del premio Nobel de Química del año 2000, han permitido avances espectaculares en la materia. Dispositivos como los diodos orgánicos emisores de luz (OLED por sus siglas en inglés), transistores orgánicos de efecto campo (OFET por sus siglas en inglés) o paneles solares orgánicos son ya conocidos en la industria.

Las principales ventajas de la electrónica molecular frente a la electrónica tradicional basada en materiales inorgánicos como el silicio son facilidad de fabricación, maleabilidad, bajo coste y mayor escala de integración.

Gran parte de nuestra actividad cotidiana implica la utilización de dispositivos que funcionan gracias a componentes electrónicos. Estos componentes se han perfeccionado durante las últimas cuatro décadas utilizando básicamente materiales semiconductores inorgánicos, entre los cuales el silicio es el protagonista indiscutible. Sin embargo, la tecnología del silicio tiene sus limitaciones y, desde principios de los años noventa, se está dedicando un gran esfuerzo científico al desarrollo de una nueva electrónica basada en la utilización de materiales moleculares electroactivos. Estos materiales son de naturaleza orgánica, incluyendo desde moléculas de pequeño tamaño (10 átomos) hasta polímeros (macromoléculas), y son capaces de responder a estímulos eléctricos y luminosos de forma similar a los conductores y semiconductores inorgánicos.

Sin lugar a dudas, el acontecimiento que más ha contribuido al desarrollo de los materiales moleculares electroactivos fue el descubrimiento de los polímeros conductores (plásticos que conducen la electricidad), merecedor del premio Nobel de Química del año 2000. Siempre nos han enseñado, y nuestra experiencia cotidiana así lo confirma, que los plásticos, a diferencia de los metales, no conducen la corriente eléctrica. De hecho, los plásticos se utilizan para aislar los hilos de cobre en el cableado eléctrico. Esta perspectiva ha cambiado en los últimos años con el descubrimiento de que ciertos plásticos (polímeros conjugados con alternancia de simples y dobles enlaces carbonocarbono, Nos encontramos, por tanto, ante nuevos materiales que nos ofrecen las propiedades eléctricas y ópticas de los metales y semiconductores, junto con las atractivas propiedades mecánicas, las ventajas de procesado y el bajo coste económico de los polímeros. A estas ventajas hay que añadir el gran potencial de la síntesis química para modificar las propiedades del material mediante cambios en la estructura química de los sistemas componentes.

Los materiales moleculares electroactivos están siendo desarrollados industrialmente para su utilización en aplicaciones tan diversas como baterías orgánicas, músculos artificiales, pantallas de teléfonos móviles, células solares, narices electrónicas, etc …

https://ociointeligente.wordpress.com/2011/11/17/el-futuro-sustituto-del-silicio-grafeno-o-molibdenita/
 
https://ociointeligente.wordpress.com/2011/11/03/grafeno-el-material-del-futuro/

Es una teoría que intenta probar que cualquiera en la Tierra puede estar conectado a cualquier otra persona del planeta a través de una cadena de conocidos que no tiene más de cinco intermediarios (conectando a ambas personas con sólo seis enlaces) o más popularmente que “el mundo es un pañuelo”. La teoría fue inicialmente propuesta en 1930 por el escritor húngaro Frigyes Karinthy en un cuento llamado Chains. El concepto está basado en la idea de que el número de conocidos crece exponencialmente con el número de enlaces en la cadena, y sólo un pequeño número de enlaces son necesarios para que el conjunto de conocidos se convierta en la población humana entera.

Recogida también en el libro “Six Degrees: The Science of a Connected Age” del sociólogo Duncan Watts, y que asegura que es posible acceder a cualquier persona del planeta en tan sólo seis “saltos”.

Según esta teoría, cada persona conoce de media, entre amigos, familiares y compañeros de trabajo o escuela, a unas 100 personas. Si cada uno de esos amigos o conocidos cercanos se relaciona con otras 100 personas, cualquier individuo puede pasar un recado a 10.000 personas más tan sólo pidiendo a un amigo que pase el mensaje a sus amigos.

Estos 10.000 individuos serían contactos de segundo nivel, que un individuo no conoce pero que puede conocer fácilmente pidiendo a sus amigos y familiares que se los presenten, y a los que se suele recurrir para ocupar un puesto de trabajo o realizar una compra. Cuando preguntamos a alguien, por ejemplo, si conoce una secretaria interesada en trabajar estamos tirando de estas redes sociales informales que hacen funcionar nuestra sociedad. Este argumento supone que los 100 amigos de cada persona no son amigos comunes. En la práctica, esto significa que el número de contactos de segundo nivel será sustancialmente menor a 10.000 debido a que es muy usual tener amigos comunes en las redes sociales.

Si esos 10.000 conocen a otros 100, la red ya se ampliaría a 1.000.000 de personas conectadas en un tercer nivel, a 100.000.000 en un cuarto nivel, a 10.000.000.000 en un quinto nivel y a 1.000.000.000.000 en un sexto nivel. En seis pasos, y con las tecnologías disponibles, se podría enviar un mensaje a cualquier individuo del planeta. Por ejemplo, imaginemos un limpiabotas de la calle. Este limpiabotas conoce a un portero de un hotel de dos estrellas; dicho portero conoce al dueño del hotel y éste al dueño de un hotel más prestigioso; el dueño de este hotel conoce a una persona que trabaja en la Casa Blanca y esta persona conoce al presidente de los Estados Unidos. En unos pocos enlaces se ha conseguido ligar un limpiabotas con el presidente de los Estados Unidos.

Evidentemente cuantos más pasos haya que dar, más lejana será la conexión entre dos individuos y más difícil la comunicación. Internet, sin embargo, ha eliminado algunas de esas barreras creando verdaderas redes sociales mundiales, especialmente en segmentos concretos de profesionales, artistas, etc.

Historia

En la década de los 50, Ithiel de Sola Pool (MIT) y Manfred Kochen (IBM) se propusieron demostrar la teoría matemáticamente. Aunque eran capaces de enunciar la cuestión “dado un conjunto de N personas, ¿cual es la probabilidad de que cada miembro de estos N estén conectados con otro miembro vía k1, k2, k3,…, kn enlaces?”, después de veinte años todavía eran incapaces de resolver el problema satisfactoriamente.

En 1967, el psicólogo estadounidense Stanley Milgram ideó una nueva manera de probar la teoría, que él llamó “el problema del pequeño mundo”. El experimento del mundo pequeño de Milgram consistió en la selección al azar de varias personas del medio oeste estadounidense, para que enviaran tarjetas postales a un extraño situado en Massachusetts, situado a varios miles de millas de distancia. Los remitentes conocían el nombre del destinatario, su ocupación y la localización aproximada. Se les indicó que enviaran el paquete a una persona que ellos conocieran directamente y que pensaran que fuera la que más probabilidades tendría, de todos sus amigos, de conocer directamente al destinatario. Esta persona tendría que hacer lo mismo y así sucesivamente hasta que el paquete fuera entregado personalmente a su destinatario final.

Aunque los participantes esperaban que la cadena incluyera al menos cientos de intermediarios, la entrega de cada paquete solamente llevó, como promedio, entre cinco y siete intermediarios. Los descubrimientos de Milgram fueron publicados en “Psychology Today” e inspiraron la frase “seis grados de separación”. El dramaturgo John Guare popularizó la frase cuando la escogió como título de su obra en 1990. Sin embargo, los descubrimientos de Milgram fueron criticados porque éstos estaban basados en el número de paquetes que alcanzaron el destinatario pretendido, que fueron sólo alrededor de un tercio del total de paquetes enviados. Además, muchos reclamaron que el experimento de Milgram era parcial en favor del éxito de la entrega de los paquetes seleccionando sus participantes de una lista de gente probablemente con ingresos por encima de lo normal, y por tanto no representativo de la persona media.

Los seis grados de separación se convirtieron en una idea aceptada en la cultura popular después de que Brett C. Tjaden publicase un juego de ordenador en el sitio web de la University of Virginia basado en el problema del pequeño mundo. Tjaden usó la Internet Movie Database (IMDb) para documentar las conexiones entre diferentes actores. La Revista Time llamó a su sitio, “The Oracle of Bacon at Virginia”,1 uno de los “Diez mejores sitios web de 1996”. Programas similares se siguen usando hoy en clases de introducción de ciencias de la computación con la finalidad de ilustrar grafos y listas.

En 2011 la empresa Facebook realizó un estudio con todos los usuarios activos de su página en ese momento 721.000.000 miembros (alrededor del 10% de la población mundial) y se analizó el conjunto de amigos en común, para sacar el promedio de cuántos eslabones hay entre cualquier usuario y otro cualquiera. De esta prueba se excluyó a celebridades y famosos. Los resultados mostraron que el 99,6% de pares de usuarios estuvieron conectados por 5 grados de separación. Esta es la prueba más cercana de la teoría a la fecha de hoy y da un resultado aproximado de 4,75 eslabones.

Fuente: Wikipedia

Rosetta Stone – Piedra Rosetta

La piedra de Rosetta es parte de una antigua estela egipcia de granodiorita1 con texto grabado que proveyó la clave para el entendimiento moderno de los jeroglíficos egipcios. La inscripción registra un decreto que fue expedido en Menfis en el año 196 antes de Cristo, en favor del rey Ptolomeo V. En el decreto aparecen tres textos: el superior consta de 14 renglones escritos en antiguos jeroglíficos egipcios, el texto medio consta de 32 renglones en egipcio demótico y el texto inferior consta de 53 renglones en griego antiguo.1 Sus dimensiones son: 112,3 cm de alto (máximo), 75,7 cm de ancho, 28,4 cm de grosor.1

La estela, originalmente expuesta dentro de un templo, fue probablemente trasladada durante el periodo copto de cristianismo primitivo o el medieval. Fue descubierta casualmente en 1799 por un soldado de la expedición francesa a Egipto cuando miembros de las tropas napoleónicas realizaban trabajos para la construcción de un fuerte en Rosetta (Raschid) en el delta del Nilo. Como el primer texto trilingüe conocido, la piedra Rosetta despertó gran interés público por su potencial para descifrar el idioma egipcio antiguo que hasta entonces no se había podido traducir. Copias litográficas y moldes en yeso empezaron a circular entre los museos europeos y estudiosos. Mientras tanto, tropas británicas derrotaban a los franceses en Egipto en 1801 y la piedra original cayó en posesión británica bajo la Capitulación de Alejandría. Transportada a Londres, ha sido exhibida públicamente en el Museo Británico desde 1802. Es uno de los objetos más visitados del Museo Británico.

Se trata del hallazgo casual de una de las más importantes piezas arqueológicas de la historia de la lengua egipcia y, por extensión, de las lenguas antiguas. Fue descubierta el 15 de julio de 1799 por el capitán francés Pierre-François Bouchard en el pueblo egipcio del delta del Nilo denominado Rosetta (también llamado Rashid), cuando las tropas capitaneadas por Napoleón Bonaparte se encontraban construyendo un fuerte, como parte de las actividades militares en la lucha contra las de Gran Bretaña en las tierras de Egipto.

La piedra iba a ser transportada a Francia por los miembros del Instituto de Egipto, pero los ejércitos ingleses, que habían desembarcado en la primavera de 1801, la confiscaron como botín de guerra, pese a las enardecidas protestas de Étienne Geoffroy Saint-Hilaire ante el general británico Hutchinson. La piedra de Rosetta se exhibe actualmente en el Museo Británico de Londres desde 1802.2 En el lado izquierdo lleva una inscripción con pintura blanca que dice «Captured in Egypt by the British Army in 1801» (Capturada en Egipto por el ejército británico en 1801), y en el derecho otra inscripción, «Presented by King George III» (Presentada por el rey Jorge III).

El texto se compone de tres lenguas: el egipcio clásico en forma de jeroglíficos; el demótico, que continua el anterior, con gran influencia del griego; y el griego, propiamente dicho. La primera traducción completa del texto griego apareció en 1803. Sin embargo, pasaron veinte años antes de que fuera anunciado el desciframiento del texto egipcio por Jean-François Champollion en París en 1822. Transcurrieron aun más años antes de que los estudiosos fueran capaces de leer otras inscripciones y la literatura en egipcio antiguo de manera aceptable y coherente. Las principales ventajas para su desciframiento fueron:

Reconocer que la piedra ofrecía el mismo texto en tres idiomas distintos con sus tres escrituras correspondientes (1799). Por tanto era de carácter plurilingüe.

  •     Que el texto demótico usaba caracteres fonéticos para deletrear nombres extranjeros (1802);
  •     Que el texto jeroglífico hacía lo mismo, y que había similitudes generales con el texto demótico (Thomas Young, 1814)
  •     Que el texto contenía nombres extranjeros con caracteres fonéticos, que también fueron usados para deletrear palabras egipcias (Champollion, 1822-1824).

Además, la comunidad copta conservaba un antiguo idioma, para fines litúrgicos, que poseía notable similitud con el hablado por los egipcios dos mil años atrás. Champollion lo estudió y dedujo las principales claves de la gramática del Antiguo Egipto.

Desde su descubrimiento, la piedra ha sido el foco de rivalidades nacionalistas, como la transferencia de su posesión de Francia a Gran Bretaña durante las Guerras Napoleónicas, la larga disputa sobre el valor de las contribuciones de Young y Champollion para el descifrado de la piedra y, en los últimos años, las demandas para que la piedra retorne a Egipto.

Otras dos copias fragmentadas del mismo decreto fueron descubiertas después y otras inscripciones bilingües o trilingües, incluyendo dos decretos ptolemaicos anteriores, (el decreto de Canopus de 283 antes de cristo, y el decreto de Menfis de Ptolomeo IV, de 218 antes de cristo). La Piedra de Rosetta no era la única inscripción bilingüe, pero fue la llave esencial para poder leer la literatura del Antiguo Egipto y conocer su civilización. Por analogía, el término Piedra de Rosetta se utiliza, en otros contextos, como nombre de las pistas esenciales en un nuevo campo del conocimiento.

Gracias a Thomas Young, Jean-François Champollion y otros estudiosos de la escritura del Antiguo Egipto, hoy puede ser considerada como una joya en la historia del lenguaje y la transcripción.

Sólo dos veces fue trasladada la piedra del Museo Británico: durante la Segunda Guerra Mundial, para su protección, y en 1972, con ocasión del 150 aniversario del descifrado de los jeroglíficos, cuando fue expuesta en el Museo del Louvre varias semanas.

Hay una reproducción de la piedra Rosetta en el Distrito de Figeac (Lot), la ciudad natal de Champollion, y es obra del artista Joseph Kossuth, mide 11 x 8,5 m, es de granito negro (traído desde Zimbabue), y en su pavimento están inscritos los textos en caracteres jeroglíficos, demótico y griego. La plaza lleva el nombre de Place des écritures (‘Plaza de las escrituras’). En el Museo Egipcio de El Cairo también se exhibe una copia.

Contenido

El texto escrito en griego antiguo comienza así: «El nuevo rey, habiendo recibido el reino de su padre…». Narra una sentencia de Ptolomeo V, describiendo varios impuestos que había revocado, ordenando además que la estela se erigiese y que el decreto fuese publicado en el lenguaje de los dioses (jeroglíficos) y en la escritura de la gente (demótica).

Tradicionalmente se pensaba que el decreto escrito en la Piedra de Rosetta fue ideado en demótico por los sacerdotes de Menfis hacia el año 197 a. C. Pero los últimos estudios de expertos en demótico han comprobado que la inscripción original fue compuesta en griego y traducida posteriormente al demótico, aunque a veces poco fielmente.

A giant copy of the Rosetta stone, by Joseph Kosuth in Figeac, France, the birthplace of Jean-François Champollion.

Traducción de un fragmento del texto de la piedra de Rosetta

Bajo el reinado del joven, que recibió la soberanía de su padre, señor de las insignias reales, cubierto de gloria, el instaurador del orden en Egipto, piadoso hacia los dioses, superior a sus enemigos, que ha restablecido la vida de los hombres, Señor de la Fiesta de los Treinta Años, igual que Hefaistos el Grande, un rey como el Sol, gran rey sobre el Alto y el Bajo País, descendiente de los dioses Filopáteres, a quien Hefaistos ha dado aprobación, a quien el Sol le ha dado la victoria, la imagen viva de Zeus, hijo del Sol, Ptolomeo, viviendo por siempre, amado de Ptah. En el año noveno, cuando Aetos, hijo de Aetos, era sacerdote de Alejandro y de los dioses Soteres, de los dioses Adelfas, y de los dioses Evergetes, y de los dioses Filopáteres, y del dios Epífanes Eucharistos, siendo Pyrrha, hija de Filinos, athlófora de Berenice Evergetes; siendo Aria, hija de Diógenes, canéfora de Arsínoe Filadelfo; siendo Irene, hija de Ptolomeo, sacerdotisa de Arsínoe Filopátor, en el (día) cuarto del mes Xandikos (o el 18 de Mejir de los egipcios).

Rosseta Stone Software

Rosetta Stone es un programa para aprender idiomas que es producido por Rosetta Stone, Inc.. El título de este programa es una referencia a la Piedra Rosetta, una piedra con inscripciones que ayudó a los investigadores a descifrar la escritura del Egipcio Antiguo.

Rosetta Stone utiliza una combinación de imágenes, texto y sonido, donde los niveles de dificultad suben a medida que el estudiante avanza. En estas lecciones el estudiante aprende vocabulario y funciones gramaticales sin traducción alguna. El objetivo del programa es que los estudiantes aprendan el idioma que estudian de la manera que aprendieron su idioma materno.

Uso del Programa

Una unidad de Rosetta Stone con sus divisiones. Las ilustraciones en cada división indican la función de los ejercicios. La instrucción del idioma se hace por medio de unidades donde cada unidad tiene 10-12 lecciones(el número de lecciones varía dependiendo de la unidad). Cada lección esta dividida entre A B C D y E. En cada lección el estudiante del idioma tiene que elegir la imagen correcta entre cuatro imágenes. Las mismas imágenes y las mismas oraciones son utilizadas en todos los idiomas
Estas son las funciones de cada sección de las lecciones
A: Escuchar y leer En este ejercicio un hablante nativo dice una palabra o frase y el estudiante tiene que elegir la imagen correcta. Esta sección contiene texto para que el estudiante lea al mismo tiempo lo que el nativo dice.

B: Escuchar En este ejercicio el hablante nativo dice una palabra o frase y luego el estudiante elige la imagen correcta. En este ejercicio no se incluye texto ya que es sólo para escuchar.

C: Leer Aquí sólo se presentas las imágenes con el texto. No hay voz del hablante nativo; el estudiante tiene que leer el texto en las imágenes solamente y así escoger la imagen que representa el texto.

D: Hablar Aquí el estudiante escucha al hablante nativo hablar y luego se le pide que repita. La voz del estudiante es evaluada por sistema de reconocimiento de voz que compara la voz del estudiante a la voz del nativo. Se necesita un micrófono para que el sistema de reconocimiento de voz pueda evaluar al estudiante.

E: Escribir Aquí el estudiante escucha una frase que luego tiene que escribir. Al presionar enter, el programa le dice donde están sus errores. Si no hay errores, el estudiante pasa a la siguiente imagen.

Niveles

Todos los idiomas excepto Latín usan el mismo set de palabras y oraciones en el mismo orden, con las mismas imágenes (incluso algunas imágenes son repetidas en diferentes lecciones). Hay tres niveles de enseñanza, cada uno vendido por separado, o pueden ser comprados juntos por un descuento.

Nivel I consiste de ocho unidades que empiezan con palabras como “niño”, ” Avión”, “Perro”, después avanza a los números, el tiempo pasado y futuro, y la unidad final consiste en dar direcciones. La unidad 1-4 tienen 10 lecciones más una lección de repaso cada una; las unidades 5-8 tienen 11 lecciones más una unidad de repaso cada una. En total son 92 lecciones.

Estos son algunos de los temas en el Nivel I:

Direcciones: “¿Cómo llego a…”
Formas afirmativas y negativas de verbos
El presente, el pasado y el futuro
Comida, comer, y beber
Relaciones familiares
Profesiones y actividades
Objectos directos
Decir la hora
Números hasta el 100
Objetos de preposiciones
Ropa y el vestirse
Estar solo, en grupo, o con amigos
Vehículos, muebles, e instrumentos musicales
Figuras, colores, y localizaciones ( la niña está a la derecha de…)

Nivel II consiste de las unidades 9-11. Estas unidades son más avanzadas que las del nivel I ya que en ellas se enseñan conceptos gramaticales más avanzados; por ejemplo el subjuntivo. Las lecciones también incluyen temas como ir al banco, ir de compras, y viajar.

En algunas lecciones se muestran videos cortos para ilustar algunos verbos. Las unidades 16 y 17 consisten completamente de caricaturas humorísticas, algunas con texto. En total son 118 lecciones.

Estos son algunos de los temas en el Nivel II:

Saludos y conversaciones
Viajar, transportación, y transacciones
Verbos en la voz pasiva
Las medidas: longitud, peso, volumen, temperatura y distancia
Ir de compras e ir a comer a restaurantes
Preguntar; formas de referencia
Imperativos
El tiempo y la ropa
Actividades de oficina y terminología
Cláusulas del subjuntivo
Conversaciones sociales comunes
El calendario
Geografía política
Los cinco sentidos; enfermedad y salud

Nivel III usa unidades más convencionales ya que usa videos mucho más largos que los del nivel II y también usa textos más largos para expandir el nivel de enseñanza.

Estos son algunos de los temas en el Nivel III:

Llegando al aeropuerto
Alquilar un coche
Tiempos subjetivos del verbo
Encontrando un apartamento
Construcciones causativas
Negociación de un arriendo
Pronombres personales, reflexivos, e intensivos
Ir de compras al mercado
Comprando y vendiendo
Pronombres relativos
Situaciones de trabajo

Versiones

Es difícil saber cual versión es la más reciente en los programas que distribuye Rosetta Stone ya que esta información no se hace disponible en su página web ni en los programas. A mediados del 2006, la versión de muestra era 2.1.4 pero Macword había evaluado la versión 3.0 varios meses antes. La version 3.0 ya esta empezando a salir y en el paquete de compra dice la version del programa. Rosetta Stone no hace que las actualizaciones de cada version estén disponible en línea; en vez de esto prefieren mandar un CD de actualización con cada orden. Esto ha causado que los usuarios tengan varias versiones en su computadora ya que muchos CD anteriores no son compatibles con otras versiones más nuevas. Las versiones nuevas tienen fotos de mejor calidad que las de sus precedentes.

Uso en el ejército de los Estados Unidos

En el 2005, Rosetta Stone firmó un contrato con el ejército de los Estados Unidos. El contrato, que vale 4.2 millones de dólares por un año, hace el programa de Rosetta Stone disponible a todos los miembros activos del ejército de EE.UU sin costo alguno. El contrato fue renovado en el 2006.

El contrato busca fortificar las habilidades lingüísticas del personal del ejército para que estos puedan tener al menos comunicación básica en el idioma donde se encuentren. Por ejemplo, muchos miembros activos usan el programa para aprender Pashto, Farsi o Árabe, hablados en Afghanistán, Irán, y el Medio Oriente, respectivamente.

La manera en que el programa es disponible a los soldados es por medio de una registración en línea. Cuando un soldado se registra para utilizar el programa se le da un nombre de usuario y una contraseña para que pueda entrar a utilizar el programa. En el 2006, 63,000 soldados se habían registrado para utilizar este servicio.

Críticas

La crítica más frecuente del programa es la falta de sensibilidad hacia los idiomas que enseña y sus respectivas culturas. Todos los programas presentan los mismos conceptos en el mismo orden, usando las mismas imágenes que en su mayor parte fueron tomadas en la ciudad de Washington, DC. en una área cercana a las instalaciones de Fairfield.

En 2007, Mark Kaiser, director del centro de lenguajes de la Universidad de California, Berkeley, evaluó la versión de Ruso. En su evaluación el profesor fue áspero llamando al programa como “muy inadecuado por un número de razones.” No sólo notó la falta de contexto cultural en cada idioma (diciendo que nunca había visto un rollo de papel higiénico en Rusia en ninguna de sus visitas) pero también dijo que algunas palabras y frases estaban muy adheridas al Inglés.

Como ejemplo Kaiser señaló una lección donde se muestra una imagen de dos personas remando y la imagen es asociada con la frase en Inglés “They are using a boat” (están usando un bote) En Ruso, esto sería traducido literalmente como “Они пользуются лодкой.” Pero, según Kaiser, ningún nativo del idioma Ruso usaría el verbo ‘usar’ en este contexto; un verbo específico al viaje por agua sería preferible para un nativo de Ruso. Por ejemplo, “Они плывут/катаются на лодке” (ellos están remando en el bote) sería usado en el contexto donde se tienen dos personas remando. Kaiser también señaló que algunas preposiciones introducidas en las primeras lecciones toman diferentes terminaciones y por lo tanto hacen que un estudiante principiante de Ruso se sature con tantas terminaciones.

Unos meses antes, Donald McRae de la Universidad de Brock, fue más amable con la versión de Alemán, llamándola “muy buena pero con algunas reservas”. En contraste con Kaiser, McRae dijo que el programa tenía muy buena pedagogía y era extremadamente efectivo.

Sin embargo, McRae estuvo en desacuerdo con la declaración de Fairfield donde se dijo que el programa puede completamente substituir un curso de idiomas de nivel principiante. Como Kaiser, McRae notó un punto donde el programa no indicaba una sutil distinción entre los verbos alemanes que significan ‘correr’. El verbo ‘laufen’ es utilizado para describir a un perro corriendo, pero este verbo normalmente indica ‘caminar’; ‘rennen’ que significa ‘correr a gran velocidad’ es utilizado para describir a un caballo. McRae concluyó que sin el contexto, un estudiante podía razonablemente concluir que ‘rennen’ aplica sólo para animales. “Estoy convencido”, escribió, “que cualquier curso de idiomas requiere la oportuna intervención de un buen maestro.”

Fuente: Wikipedia

El Efecto Mariposa – La Teoria del Caos para Dummies

“El simple aleteo de una mariposa puede cambiar el mundo”.

El “efecto mariposa” es un concepto que hace referencia a la noción del tiempo a las condiciones iniciales dentro del marco de la teoría del caos. La idea es que, dadas unas condiciones iniciales de un determinado sistema caótico, la más mínima variación en ellas puede provocar que el sistema evolucione en formas completamente diferentes. Sucediendo así que, una pequeña perturbación inicial, mediante un proceso de amplificación, podrá generar un efecto considerablemente grande a mediano o corto plazo de tiempo.

Un ejemplo claro sobre el efecto mariposa es soltar una pelota justo sobre la arista del tejado de una casa varias veces; pequeñas desviaciones en la posición inicial pueden hacer que la pelota caiga por uno de los lados del tejado o por el otro, conduciendo a trayectorias de caída y posiciones de reposo final completamente diferentes. Cambios minúsculos que conducen a resultados totalmente divergentes.

Su nombre proviene de las frases: “el aleteo de las alas de una mariposa se puede sentir al otro lado del mundo” (proverbio chino) o “el aleteo de las alas de una mariposa pueden provocar un Tsunami al otro lado del mundo” así como también “El simple aleteo de una mariposa puede cambiar el mundo”.

Este nombre también fue acuñado a partir del resultado obtenido por el meteorólogo y matemático Edward Lorenz al intentar hacer una predicción del clima atmosférico.

Teoría del caos es la denominación popular de la rama de las matemáticas, la física y otras ciencias que trata ciertos tipos de sistemas dinámicos muy sensibles a las variaciones en las condiciones iniciales. Pequeñas variaciones en dichas condiciones iniciales pueden implicar grandes diferencias en el comportamiento futuro; complicando la predicción a largo plazo. Esto sucede aunque estos sistemas son en rigor determinísticos, es decir; su comportamiento puede ser completamente determinado conociendo sus condiciones iniciales.

Los sistemas dinámicos se pueden clasificar básicamente en:

  •     Estables
  •     Inestables
  •     Caóticos

Un sistema estable tiende a lo largo del tiempo a un punto, u órbita, según su dimensión (atractor o sumidero). Un sistema inestable se escapa de los atractores. Y un sistema caótico manifiesta los dos comportamientos. Por un lado, existe un atractor por el que el sistema se ve atraído, pero a la vez, hay “fuerzas” que lo alejan de éste. De esa manera, el sistema permanece confinado en una zona de su espacio de estados, pero sin tender a un atractor fijo.

Una de las mayores características de un sistema inestable es que tiene una gran dependencia de las condiciones iniciales. De un sistema del que se conocen sus ecuaciones características, y con unas condiciones iniciales fijas, se puede conocer exactamente su evolución en el tiempo. Pero en el caso de los sistemas caóticos, una mínima diferencia en esas condiciones hace que el sistema evolucione de manera totalmente distinta. Ejemplos de tales sistemas incluyen el Sistema Solar, las placas tectónicas, los fluidos en régimen turbulento y los crecimientos de población.

Atractores

Una manera de visualizar el movimiento caótico, o cualquier tipo de movimiento, es hacer un diagrama de fases del movimiento. En tal diagrama el tiempo está implícito y cada eje representa una dimensión del estado. Por ejemplo, un sistema en reposo será dibujado como un punto, y un sistema en movimiento periódico será dibujado como un círculo.

Algunas veces el movimiento representado con estos diagramas de fases no muestra una trayectoria bien definida, sino que ésta es errabunda alrededor de algún movimiento bien definido. Cuando esto sucede se dice que el sistema es atraído hacia un tipo de movimiento, es decir, que hay un atractor.

De acuerdo a la forma en que sus trayectorias evolucionen, los atractores pueden ser clasificados como periódicos, cuasi-periódicos y extraños. Estos nombres se relacionan exactamente con el tipo de movimiento que provocan en los sistemas. Un atractor periódico, por ejemplo, puede guiar el movimiento de un péndulo en oscilaciones periódicas; sin embargo, el péndulo seguirá trayectorias erráticas alrededor de estas oscilaciones debidas a otros factores menores no considerados.

Atractores extraños

La mayoría de los tipos de movimientos mencionados en la teoría anterior sucede alrededor de atractores muy simples, tales como puntos y curvas circulares llamadas ciclos límite. En cambio, el movimiento caótico está ligado a lo que se conoce como atractores extraños, ellos que pueden llegar a tener una enorme complejidad como, por ejemplo, el modelo tridimensional del sistema climático de Lorenz, que lleva al famoso atractor de Lorenz. El atractor de Lorenz es, quizá, uno de los diagramas de sistemas caóticos más conocidos, no sólo porque fue uno de los primeros, sino también porque es uno de los más complejos y peculiares, pues desenvuelve una forma muy peculiar más bien parecida a las alas de una mariposa.

Los atractores extraños están presentes tanto en los sistemas continuos dinámicos (tales como el sistema de Lorenz) como en algunos sistemas discretos (por ejemplo el mapa Hènon). Otros sistemas dinámicos discretos tienen una estructura repelente, de tipo Conjunto de Julia, la cual se forma en el límite entre las cuencas de dos puntos de atracción fijos. Julia puede ser sin embargo un atractor extraño. Ambos, atractores extraños y atractores tipo Conjunto de Julia, tienen típicamente una estructura de fractal.

El teorema de Poincaré-Bendixson muestra que un atractor extraño sólo puede presentarse como un sistema continuo dinámico si tiene tres o más dimensiones. Sin embargo, tal restricción no se aplica a los sistemas discretos, los cuales pueden exhibir atractores extraños en dos o incluso una dimensión.

Algo más de atractores

Los atractores extraños son curvas del espacio de las fases que describen la trayectoria elíptica de un sistema en movimiento caótico. Un sistema de estas características es plenamente impredecible, saber la configuración del sistema en un momento dado no permite predecir con veracidad su configuración en un momento posterior. De todos modos, el movimiento no es completamente aleatorio.

En la mayoría de sistemas dinámicos se encuentran elementos que permiten un tipo de movimiento repetitivo y, a veces, geométricamente establecido. Los atractores son los encargados de que las variables que inician en un punto de partida mantengan una trayectoria establecida, y lo que no se puede establecer de una manera precisa son las oscilaciones que las variables puedan tener al recorrer las órbitas que lleguen a establecer los atractores. Por ejemplo, es posible ver y de cierta manera prever la trayectoria de un satélite alrededor de la Tierra; lo que aparece, en este caso, como algo indeterminado son los movimientos e inconvenientes varios que se le pueden presentar al objeto para efectuar este recorrido.

Aplicaciones

La Teoría del Caos y la matemática caótica resultaron ser una herramienta con aplicaciones a muchos campos de la ciencia y la tecnología. Gracias a estas aplicaciones el nombre se torna paradójico, dado que muchas de las prácticas que se realizan con la matemática caótica tienen resultados concretos porque los sistemas que se estudian están basados estrictamente con leyes deterministas aplicadas a sistemas dinámicos.

En Internet se desarrolla este concepto en Teoría del Caos, el tercer paradigma, de cómo la estadística inferencial trabaja con modelos aleatorios para crear series caóticas predictoras para el estudio de eventos presumiblemente caóticos en las Ciencias Sociales. Por esta razón la Teoría del Caos ya no es en sí una teoría: tiene postulados, fórmulas y parámetros recientemente establecidos con aplicaciones, por ejemplo, en las áreas de la meteorología o la física cuántica, y actualmente hay varios ejemplos de aplicación en la arquitectura a través de los fractales, por ejemplo el Jardín Botánico de Barcelona de Carlos Ferrater.

Fuente: Wikipedia

Analfabetismo científico

El 85 al 90 por ciento de la humanidad vive en paí­ses sin ciencia (apenas si tienen un poco de investigación), a quienes ya casi no les queda nada que puedan producir para pagar lo que necesitan en equipos, transportes, comunicación, medicinas, y que produce el Primer Mundo. Eso hunde al Tercero en la desocupación y la miseria. Pero la falta de ciencia tiene un drama aparejado, el analfabetismo cientí­fico, pues cuando a un pueblo le faltan alimentos, energí­a, medicinas, sus habitantes son los primeros en detectar la falta; en cambio, cuando carece de ciencia no sólo es incapaz de advertirlo, sino que tampoco logra imaginar qué harí­a con ella.

Por eso el analfabetismo cientí­fico genera un tercer drama: los investigadores se quejan de que los gobiernos no destinan suficientes fondos a la ciencia, la rodean de una burocracia sofocante y acaso delictuosa (llega a malgastar opacamente fondos en proyectos sin originalidad alguna). También culpan a los empresarios, porque aunque se colapsen ante la competencia tecnológica, rara vez recurren a la comunidad cientí­fica-universitaria. Algo así­ como si muriéramos sin sospechar que eso que se llama ¡medicina! y esos lugares en cuyo frente se lee ¡Hospital! son, justamente, para aliviarnos y acaso curarnos. Creo que se trata de acusaciones injustas, ofensivas y contraproducentes.

Tomados en conjunto, nuestros funcionarios y lí­deres no son perversos, sino analfabetas cientí­ficos a quienes se debe tratar con el mismo respeto que merece un campesino que no ha tenido la suerte de acceder a la escolaridad. Es como preguntar en una remota comunidad indí­gena ¡¿Quién necesita ácido pantoténico?…¿y carotenoides y riboflavinas?! y murmurar ¡Caramba, me habí­an dicho que sufrí­an vitaminosis pero veo que no es así­ ¿Qué sabe el analfabeta cientí­fico sobre qué es y para qué servirí­a la ciencia, ni por qué el carecer de ella nos hunde en desocupación, miseria y dependencia?

Para constatar que su analfabetismo es de buena fe, basta oí­rlos argumentar sobre básica/aplicada, duras/blandas, tironear de presupuestos para las universidades, y comprobar que ni siquiera ayudan a generar el conocimiento del que dependen sus empresas y dependencias del Estado. Pero insistimos: el analfabetismo cientí­fico no surge de ninguna perversidad, sino de una educación arcaica, que no ha logrado conferirles una visión del mundo que sea compatible con la ciencia.

México ha dado pasos importantí­simos, que un menosprecio generalizado corre el riesgo de ocultarnos. En primer lugar ha forjado una comunidad de investigadores que publican en las mejores revistas del mundo, forman parte de los cuerpos cientí­fico/docentes de las mejores universidades de Europa y Estados Unidos. En segundo, ha desarrollado una divulgación cientí­fica excelente, eficaz, atractiva, estimulante. Ahora debe encarar una acción para desarraigar el analfabetismo cientí­fico, sobre todo el más nocivo, el de Estado y de nuestros lí­deres. Pero debe hacerlo recordando que la idea es educar, no denostar. Reconozco que no es fácil montar una campaña nacional para erradicar el analfabetismo cientí­fico. Así­ y todo, el primer paso deberí­a ser un diagnóstico que no vilipendie a quien se propone alfabetizar. Sé muy bien que, para el analfabeta cientí­fico todo se plantea y se juega con un enfoque polí­tico-economicista-humillador. Pero eso es parte del problema a resolver.

Marcelino Cereijido

Julio 2005

*El autor es miembro de la Academia Mexicana de Ciencias adscrito al Centro de Investigación y de Estudios Avanzados.

Eva mitocondrial, la madre de la especie humana

La Eva mitocondrial, según la genética humana, fue una mujer africana que, en la evolución humana, correspondería al ancestro común más reciente femenino que poseía las mitocondrias de las cuales descienden todas las de la población humana actual.

La Eva mitocondrial recibe su nombre de la Eva que se relata en el libro del Génesis de la Biblia.

Al seguir la línea genealógica por vía materna de cada persona en el árbol genealógico de toda la humanidad, la Eva mitocondrial correspondería a un único antepasado femenino de la cual desciende toda la población actual de seres humanos (Homo sapiens).

Basándose en la técnica de reloj molecular (en inglés, molecular clock), investigaciones recientes (2009) estiman que este ancestro vivió hace aproximadamente 200.000 años, lo que corrobora los primeros cálculos proyectados en 1987. La región más probable en que se originó es el África Oriental.

Una comparación del ADN mitocondrial de distintas etnias de diferentes regiones sugiere que todas las secuencias de este ADN tienen envoltura molecular en una secuencia ancestral común. Asumiendo que el genoma mitocondrial sólo se puede obtener de la madre, estos hallazgos implicarían que todos los seres humanos descienden, en última instancia de una sola mujer, cuando ya habrían existido los primeros y más primitivos Homo sapiens, tales como el Homo sapiens idaltu.

Uno de los errores más comunes es creer que la Eva mitocondrial era la única mujer viva en el momento de su existencia y que es la única mujer que tuvo descendencia hasta la actualidad. Estudios nucleares de ADN indican que el tamaño de la población humana antigua nunca cayó por debajo de algunas decenas de miles de personas, y, por lo tanto, había muchas otras mujeres con descendientes vivos hasta hoy, pero que en algún lugar en todas sus líneas de descendencia hay por lo menos una generación sin descendencia femenina pero sí masculina, por lo tanto no se mantuvo su ADN mitocondrial pero sí su ADN cromosómico.

Se sabe de esta Eva a causa del genoma contenido en las mitocondrias (orgánulo presente en todas las células) que sólo se transmite de la madre a la prole. Cada mitocondria contiene ADN mitocondrial, y la comparación de las secuencias de este ADN revela una filogenia molecular.

Aunque no se puede descartar que la Eva mitocondrial haya sido el único ancestro femenino que vivió en su época, es probable que haya habido mujeres anteriores a la Eva mitocondrial y también otras pertenecientes a aquella época que hayan tenido descendencia hasta cierto momento en el pasado. Sin embargo, sólo la Eva mitocondrial produjo una línea completa de hijas hasta nuestros tiempos; por lo cual es el ancestro femenino del cual proviene toda la población actual.

El fundamento del linaje de la Eva mitocondrial, está en que al revisar el árbol genealógico de todos los seres humanos que viven en la actualidad (a través de la genética), siguiendo la línea de cada individuo a su madre se estará retrocediendo en el tiempo y todas las líneas convergerán en un punto en que todas las hijas comparten la misma madre. En este seguimiento, se observa que las ramas más antiguas (llamadas haplogrupos) comprueban una ascendencia mitocondrial africana y cuanto más se retroceda en el tiempo, menos linajes quedarán hasta que quede sólo uno; el cual corresponde al de la Eva mitocondrial.

Por ello, cuanto más pequeña es una población, más rápidamente converge el ADN mitocondrial; las migraciones de pequeños grupos de personas derivan (en lo que se llama deriva genética) luego de unas pocas generaciones hacia un ADN mitocondrial común. Esto sirve como sustento a la teoría del origen común, teoría que plantea que los seres humanos modernos (Homo sapiens) se originaron en África hace entre 100.000 y 200.000 años.

Así como las mitocondrias se heredan por vía materna, los cromosomas Y se heredan por vía paterna. Por lo tanto es válido aplicar los mismos principios con éstos. El ancestro común más cercano por vía paterna ha sido apodado Adán cromosómico. Sin embargo es importante aclarar que, de acuerdo a lo que la ciencia actual es capaz de explicar, éste último no vivió en la misma época que la Eva mitocondrial, sino hace unos 75.000 años, con más de 100.000 años de diferencia.

Fuente: Wikipedia

Animales transgénicos

3505.- El ratón transgénico, que lleva incorporado el gen de la hormona de crecimiento de la rata,
tiene un aumento de tamaño del 80% en comparación con un ratón normal
(Fuente: S.F.Gilbert, 1988, Developmental Biology, 2nd edition, Sinauer Associate, Inc.)

Normalmente, en los organismos superiores animales o vegetales la información genética se transmite por mecanismos de reproducción sexual ; es lo que se conoce como transmisión genética vertical. Sin embargo, hace ya unos veinte años se logró obtener los primeros ratones transgénicos mediante transferencia génica por inyección directa de ADN extraño en un cigoto obtenido por fecundación in vitro ; es decir, se trataba de una transmisión genética horizontal, también llamada transgénesis.

A partir de las experiencias de Gordon, Ruddle y colaboradores iniciadas en 1980 en las que inyectaron ADN de ratón en uno de los pronúcleos de un cigoto de la misma especie, se inició una nueva era en la manipulación genética de embriones de mamíferos. Al año siguiente, Gordon y Ruddle (1981) demostraban la integración y transmisión estable a través de la línea germinal de genes inyectados en pronúcleos de cigotos de ratón obtenidos por fecundación in vitro. Eran los primeros ratones transgénicos. El paso siguiente consistió en probar que también se podían obtener ratones transgénicos que incorporaran en su genoma un gen (transgén) de otra especie. Así, Palmiter y colaboradores (1982) obtuvieron ratones transgénicos gigantes al inyectar en el pronúcleo de un cigoto el gen de la rata que codifica para la hormona del crecimiernto. Incluso, se obtuvieron también ratones transgénicos gigantes cuando el transgén introducido era el gen humano que codifica para la hormona de crecimiento (Palmiter et al., 1983).

Como era de esperar, a los ratones transgénicos siguieron los conejos, ovejas y cerdos transgénicos a los que se les había introducido por microinyección en uno de los pronúcleos del cigoto el ADN del gen humano que codifica para la hormona de crecimiento, en un intento de aumentar el tamaño de tales animales (Hammer et al., 1985). Sin embargo, este avance científico no tuvo aplicación zootécnica porque la presencia del transgén modifica la fisiología del animal transgénico, produciendo efectos colaterales perjudiciales para su desarrollo. De cualquier manera, la era de la trangénesis animal había comenzado como una realidad imparable.

En el cuadro adjunto se indican algunas especies en las que se han obtenido animales transgénicos:

ANIMALES TRANSGÉNICOS

MAMÍFEROS

AVES

PECES

Ratón

Rata

Conejo

Vacuno

Cerdo

Oveja

Cabra

Pollo

Codorniz

Salmón

Trucha

Tilapia

Carpa

Pez gato

Medaka

Dorada

(revisiones por Clark et al., 1987; Chen y Powers, 1990; Bialy, 1991; Sangh, 1994; Velander et al.,1997)

Las técnicas de obtención de animales transgénicos son:

  • Microinyección de ADN en núcleo de ovocito
  • Microinyección de ADN en pronúcleo o en citoplasma de cigoto (óvulo fecundado)
  • Electroporación de cigoto
  • Transfección de células totipotentes
  • Co-inyección en ovocitos de una mezcla de cabezas de espermatozoides y ADN exógeno
  • Vectores virales
  • Transfección de gametos
  • Transferencia de núcleos transfectados (clonación)

PROBLEMAS DE LA TRANSGÉNESIS

La introducción de una nueva información genética (el transgén) dentro del genoma de un organismo puede presentar algunos problemas en relación a dónde y cuándo expresar el transgén, tal como se indica a continuación:

  • Integración múltiple (en tándem o no)
  • Lugar de integración indeterminado (efecto de posición)
  • Metilación y falta de expresión
  • Mosaicismo (germinal y somático)
  • Expresión específica/ectópica
  • Expresión variable
  • Expresión variable dentro de líneas (variegación)

En cualquier caso, el ideal sería poder dirigir con total precisión el lugar de integración del transgén. Así, por ejemplo, en 1999 se obtuvieron en el Roslin Institute de Edinburgo las ovejas transgénicas “Cupid” y “Diana” a partir de la clonación de cultivos celulares modificados mediante recombinación homóloga (“gene targeting”).

OBJETIVOS: APLICACIONES

La Biotecnología incluye “cualquier técnica que utilice organismos vivos o parte de los organismos para fabricar o modificar productos, mejorar plantas o animales o desarrollar microorganismos para usos específicos” (Rodríguez-Villanueva, 1986).
La potencialidad de la biotecnología estriba en producir cantidades ilimitadas de:

  • Substancias de las que nunca se había dispuesto con anterioridad
  • Productos que se obtenían en pequeñas cantidades
  • Abaratamiento de los costes de producción
  • Mayor seguridad en los productos obtenidos
  • Nuevas materias primas, más abundantes y menos caras

Dentro de este contexto general, la Biotecnología ha incorporado la transgénesis animal con los fines que se indican a continuación:

  • Mejora de caracteres productivos
  • Resistencia a enfermedades
  • Modelos animales de enfermedades humanas (por ejemplo, ratones knockout)

Animales transgénicos como biorreactores para la síntesis de proteínas de alto valor (proteínas terapéuticas): Las “granjas farmacéuticas” o “granjas moleculares”
bullet

Donación de órganos: Xenotransplantes

De todos ellos, en lo que sigue se hará referencia únicamente a los dos últimos.

LAS GRANJAS FARMACÉUTICAS

La Biotecnología ha aplicado estas técnicas experimentales de transgénesis y ya hoy se están estableciendo las primeras granjas farmacéuticas en las que se crían ovejas, cabras, vacas o cerdos transgénicos que producen en su leche proteínas terapéuticas humanas (ver Velander et al., 1997).

La manipulación genética de un mamífero doméstico transgénico consiste, en primer lugar, en preparar el fragmento de ADN que contiene el gen humano, uniéndolo a otro fragmento de ADN correspondiente a un elemento regulador (promotor) procedente de un gen que promueve la síntesis de una proteína de la leche (por ejemplo, la b -lactoglobulina, la caseína, etc.). De esta manera se asegura que el gen humano sólo se expresará en las células de las glándulas mamarias del animal transgénico (oveja, cabra, vaca, cerdo) obtenido tras la inyección del ADN manipulado en el pronúcleo masculino de un cigoto producido por fecundación in vitro. Sin embargo, actualmente, la utilización de la técnica de clonación por transferencia de núcleos de células genéticamente modificadas resulta más ventajosa. Con esta última técnica, los investigadores del Roslin Institute de Edinburgo obtuvieron por vez primera en 1997 ovejas transgénicas procedentes de núcleos de fibroblastos fetales a los que se les había introducido el gen humano que codifica para el factor IX de coagulación de la sangre (Schnieke et al., 1997). Los resultados de estos autores demostraron además que la utilización de la técnica de clonación de los núcleos modificados genéticamente es mucho más eficaz que la técnica original de microinyección de ADN en los pronúcleos de los cigotos.

Posteriormente, con estas técnicas se ha conseguido que la leche de las hembras transgénicas contenga también otras proteínas terapéuticas humanas (a -1-antitripsina, proteína C, factor VIII de coagulación, antitrombina III, etc.) que pueden luego ser fácilmente separadas de las restantes proteínas propias del animal. Además es importante señalar que el animal transgénico no se ve perjudicado en su desarrollo porque el gen humano sólo se expresa en las células de las glándulas mamarias debido al regulador específico al que se le ha asociado y, por tanto, en las restantes células del animal no se sintetiza la proteína humana al estar silenciado el gen humano. En consecuencia, el animal doméstico ha sido convertido en un gran biorreactor sin perjuicio aparente para él.

Las primeras granjas farmacéuticas fueron establecidas por compañías biotecnológicas como Pharmaceutical Proteins Ltd (PPL) en Escocia (1500 ovejas), Genzyme Transgenics en Estados Unidos (1000 cabras), Gene Pharming Europe en Holanda (vacas), etc. Otros grupos de investigación son partidarios de la utilización de las granjas de cerdos transgénicos dado su corto tiempo de gestación (cuatro meses), el intervalo generacional (un año) y el mayor tamaño de las camadas (10 a 12 lechones), teniendo en cuenta además que una cerda lactante produce unos 300 litros de leche al año.

Las cifras económicas demuestran la importancia futura de las granjas farmacéuticas : el mercado de proteínas terapéuticas, que actualmente se obtienen principalmente mediante fermentación o cultivo celulares, se estima en unos 7.600 millones de dólares anuales y se calcula que podrá llegar a ser de 18.500 millones de dólares el año 2000 (ver Postel-Vinay y Millet, 1997 para una versión divulgadora de los experimentos de clonación y de animales transgénicos).

Ovejas transgénicas

Los pacientes de enfisema hereditario necesitan ingerir grandes dosis de a -1-antitripsina para suplir su deficiencia en plasma, donde la concentración es de 2 mg/ml. Pues bien, en el Roslin Institute de Edinburgo, en colaboración con la empresa PPL, se han obtenido por diversos procedimientos ovejas transgénicas portadoras del gen humano que codifica para la a -1-antitripsina (unido al promotor de la b -lactoglobulina para que se exprese exclusivamente en las células de la glándula mamaria. Así, el grupo que dirige el Dr. Ian Wilmut microinyectaron 549 cigotos con el ADN del gen humano unido al promotor del gen de la b -lactoglobulina de oveja, obteniendo 113 individuos de los que cinco (un cordero y cuatro ovejas) eran transgénicos. Las ovejas producían más de 1 mg/ml de a -1-antitripsina en la leche e, incluso, una de ellas, que presentaba un mayor número de copias del transgén integradas en el genoma, llegó a producir hasta 63 mg/ml durante la primera semana, pero luego se estabilizó en 35 mg/ml (Wright et al., 1991).

El mismo grupo de investigación ha obtenido también ovejas transgénicas portadoras del gen humano que codifica para el factor IX de coagulación de la sangre (antihemofílico), primero mediante la técnica de microinyección en el pronúcleo del cigoto del correspondiente gen humano (ADNc) unido al promotor del gen de la b -lactoglobulina de la oveja (Clark et al., 1989) y más tarde mediante la técnica de clonación: transferencia de núcleos de fibroblastos fetales genéticamente modificados (Schnieke et al., 1997).

Cabras transgénicas

Las cabras también pueden constituir unos buenos biorreactores de proteínas humanas puesto que producen 4 litros/día de leche y sus períodos de gestación y de desarrollo son cortos (5 y 8 meses, respectivamente). Así, Ebert et al. (1991) obtuvieron cabras transgénicas portadoras del gen humano que codifica para el activador tisular de plasminógeno (AtPH) que, al estar unido al promotor del gen de la b -caseína de la cabra, producía hasta 2-3 mg/ml de AtPH en la leche del animal. La proteína podía ser aislada con una pureza del 98% y una actividad específica de 610.000 U/mg (Denman et al., 1991).

Vacas transgénicas

La gran producción lechera de las vacas (10.000 litros/año, 35 g proteína/litro de leche) las convierte en poderosos biorreactores de proteínas humanas. En 1991, tres grupos de investigación de Holanda (la Universidad de Leiden, la empresa Gene Pharming Europe y el Instituto de Producción Animal de Zeist) obtuvieron vacas transgénicas portadoras del gen humano de la lactoferrina que se sintetizaba en la leche del animal por estar unido al promotor de la a -S1-caseína bovina. Así, Krimpenfort et al. (1991) inyectaron 1.154 pronúcleos de otros tantos cigotos obtenidos por fecundación in vitro, de los cuales sobrevivieron 981. A los 9 días transfirieron 129 embriones a vacas estimuladas hormonalmente (pseudopreñez), quedando 21 de ellas preñadas y sólo 16 llevaron a término la gestación. Se obtuvo un macho y una hembra (que era un mosaico). El macho dio positivo para la presencia del gen humano en todos los tejidos analizados (placenta, oreja y sangre), estimándose que era portador de 5 a 10 copias del gen humano.

Más tarde, otro grupo de investigación (Cibelli et al., 1998) obtuvo tres terneros clónicos transgénicos que llevaban el trasgén híbrido b -gal-neo que se expresaba con un promotor muy potente del citomegalovirus.

En el caso de las vacas, otros objetivos pueden ser la aplicación de la técnica conocida como “modelo de la glándula mamaria” para reducir la lactosa (para los casos de intolerancia) o fabricar “in vivo” leche maternizada, suprimiendo mediante la técnica de “knockout” del gen de la b -lactoglobulina de la leche de vaca para imitar a la leche humana que no la tiene.

XENOTRASPLANTES

Desde que el Doctor Christiaan Barnard hiciera su primer trasplante de corazón, la técnica de trasplante de órganos se ha generalizado en la práctica médica, habiendo alcanzado altísimos niveles de perfección. Sin embargo, uno de los retos pendientes es el de la oferta y la demanda: desgraciadamente muchos pacientes mueren antes de tener acceso al trasplante deseado. Por ello la posibilidad de recurrir a especies animales como donantes de órganos se planteó hace ya muchos años. De hecho, entre los años 1964 y 1995 se han realizado 32 xenotrasplantes de riñón, corazón, hígado y médula ósea procedentes mayoritariamente de chimpancé y mandril con un resultado negativo.

La utilización de órganos procedentes de monos tenía la lógica de su proximidad evolutiva con la especie humana, pero la diferencia de tamaños de los órganos entre las especies suponía un serio inconveniente. Por eso se pensó en el cerdo como posible donante. Por otro lado, una causa importante del fracaso de los xenotrasplantes es el rechazo hiperagudo que se produce cuando el organismo humano reconoce la presencia del órgano de otra especie. De ahí surgió la idea de utilizar cerdos transgénicos como posibles donantes.

Respecto a la utilización de cerdos transgénicos como reservorio de órganos para posibles trasplantes (xenotrasplantes) de corazón, riñón o hígado a pacientes humanos hay que ser todavía muy cauto en relación con las expectativas creadas. El primer paso que se ha dado ha consistido en la obtención de cerdos transgénicos capaces de expresar el antígeno regulatorio del complemento humano, evitando así el rechazo hiperagudo (Dr. David J.G. White, en Cambridge, en 1992). No obstante, quedan por resolver aún numerosos interrogantes, entre ellos la posibilidad de que se transmitan al hombre infecciones virales de origen animal (Le Tissier et al. 1997). De ahí la importancia que tendría la posible utilización de cerdos transgénicos ante la demanda creciente de órganos y las correspondientes listas de espera. Para una revisión de los xenotrasplantes ver Lanza et al. (1997) y Cooper et al. (1997)

ASPECTOS BIOÉTICOS

En un contexto bioético quizá podría ser conveniente hacer una valoración general sobre lo que significa la introducción de genes humanos en organismos no humanos. Habría que distinguir dos situaciones diferentes: la primera, cuando la transferencia del gen humano al organismo no humano se hace en beneficio del propio hombre, y la segunda cuando la transferencia del gen humano al organismo no humano se hace exclusivamente en beneficio (o perjuicio) de este último.

Desde el punto de vista bioético, la situación creada por la obtención de mamíferos transgénicos portadores de genes humanos para la obtención de proteínas terapéuticas humanas no es esencialmente nueva ya que, desde los primeros tiempos de la ingeniería genética molecular, se han introducido genes humanos en células bacterianas para obtener proteínas humanas (insulina, hormona de crecimiento, interferón, etc.). Tanto en el caso de las bacterias como de los animales transgénicos que se convierten en factorías naturales (biorreactores) de proteínas humanas, la valoración ética es positiva. En este último caso es importante señalar además que, al quedar restringida la expresión del gen humano a las células de la glándula mamaria, la fisiología y desarrollo del animal no se ven alterados y por tanto se evita cualquier daño a éste, quedando protegidos así los derechos de los animales.

En el segundo caso planteado, cuando la transferencia del transgén humano se realiza con el único propósito de influir en el desarrollo del animal, la valoración ética puede ser negativa si se producen anomalías importantes en su fisiología, como ocurrió en los cerdos que habían incorporado el gen humano de la hormona del crecimiento. Finalmente, en este contexto ¿podría decirse que algún gen humano concreto – en definitiva, un trozo de ADN – merecería un tratamiento o valoración ética diferente al resto? La respuesta lógica sería negativa, so pena de caer en una sacralización del ADN humano.

¿Cuál es la valoración ética de los xenotrasplantes?

En primer lugar, habría que tener la garantía suficiente de que no hay problemas de transmisión viral. Aún sentada esta premisa, hay que reconocer que a muchas personas les repugna, en principio, la idea de que alguien pueda llevar un órgano animal. Sin embargo habría que recordar que desde hace mucho tiempo se realiza la implantación de válvulas de cerdo a personas con ciertas insuficiencias cardiacas y todo el mundo ha aceptado esta práctica médica. Por otro lado, la existencia de prótesis de material inerte (plástico, metales, etc.) podría ser igualmente rechazado y no lo es. Ciertamente, desde el punto de vista ético parece que no habría razón para rechazar los xenotrasplantes en la medicina del futuro, siempre que se solucionen todos los aspectos técnicos – que son muchos – que aún quedan por resolver.

Fuente: http://www.prodiversitas.bioetica.org/des18.htm

El futuro sustituto del silicio: ¿Grafeno o Molibdenita?

La molibdenita es un mineral del grupo II (sulfuros), según la clasificación de Strunz; es un disulfuro de molibdeno (MoS2). Es de apariencia y de tacto similar al grafito; y también posee propiedades lubricantes que son consecuencia de su estructura de capas. La estructura atómica consiste en láminas de átomos de molibdeno contenidos entre láminas de átomos de azufre. Las uniones Mo-S son fuertes, pero la interacción entre átomos de azufre entre las capas superiores e inferiores de un conjunto de tres láminas es débil, lo que produce un efecto de fácil deslizamiento a la vez que planos de exfoliación.

La molibdenita se produce en depósitos minerales hidrotermales de alta temperatura. Entre los minerales asociados a ella se encuentran la pirita, la calcopirita, el cuarzo, la anhidrita, la fluorita y la scheelita. Entre los depósitos más importantes se cuentan los depósitos de pórfidos de molibdeno diseminados en Questa, Nuevo México, EE.UU., y en las minas Henderson y Climax en Colorado, EE.UU.. La molibdenita también puede presentarse junto a depósitos de pórfido de cobre como ocurre en Arizona y Utah en EE.UU., y en México.

El descubrimiento realizado en el laboratorio suizo del École Polytechnique Fédérale de Lausanne (EPFL) podría desarrollar un papel fundamental en el segmento de la electrónica, ya que facilitaría la fabricación de transistores que son más pequeños y más eficientes energéticamente.

La investigación llevada a cabo en el Laboratorio de Electrónica y Structuras a Nanoescala (LANES) ha revelado que la molibdenita (MoS2), es un semiconductor muy eficiente. Además, el mineral, que es muy abundante en la naturaleza, se usa a menudo como un elemento integrante de las aleaciones de acero o como aditivo en lubricantes, pero aún no se había estudiado su aplicación al mundo de la electrónica.

Según Andra Kis, uno de profesores del EPFL encargados del estudio, la molibdenita “es un material de dos dimensiones, muy delgado y fácil de usar en nanotecnología. Tiene potencial real en la fabricación de transitores muy pequeños, en la de LEDs y en células solares“.

El Grafeno viene siendo la estrella de los nuevos materiales, con sus increíbles capacidades de conducción eléctrica y térmica que permitirían fabricar computadoras mucho más rápidas y eficientes. Sin embargo, la Molibdenita (MoS2), es un material que puede encontrarse facilmente en la naturaleza y presenta características que lo hacen mucho mejor que el Grafeno para fabricar transistores. La Molibdenita se conoce desde hace muchísimo tiempo, pero recién ahora se empezó a evaluar su potencial como material para aplicaciones electrónicas.

Año tras año, los fabricantes de chips, como Intel, AMD, ATI, NVIDIA, QUACOMM y muchos más, reducen sus tamaños de fabricación. Es usual escuchar que tal o cual línea de procesadores están fabricados con un “proceso de 45 nm” o, los más nuevos, en 22 nanómetros. ¿Qué significa esto? Los transistores que componen los chips se graban mediante técnicas litográficas sobre la superficie del buffer de Silicio, esto les permite hacer transistores muy pequeños, cuyo tamaño es del orden de varias decenas de nanómetros. Cada reducción en el tamaño de los transistores implica muchísima investigación y desarrollo por parte de las empresas, y cuánto más reducen el tamaño, más díficil es hacer el siguiente salto. Actualmente estamos experimentando el salto de 45 a 22 nanómetros, pero el próximo va a llevar varios años y muchos dólares involucrados. Aquí es dónde los nuevos nanomateriales salen a jugar un papel fundamental.

Aplicaciones de los nanomateriales

Desde su descubrimiento en 2004, hasta el premio Nobel que ganaron sus “padres” en 2010, el Grafeno se venía perfilando como el sucesor del Silicio a la hora de fabricar componentes electrónicos. Sin embargo, su uso presenta ciertas complicaciones. Si bien es un material superconductor a temperatura ambiente y tiene una geometría laminar de tan sólo un átomo de espesor (razón por la cual prácticamente no genera pérdidas de energía al hacerle pasar una corriente eléctrica), no dispone de una característica fundamental, el band-gap. El Band-gap (o Banda Prohibida) es el pilar de la electrónica, de ella depende el funcionamiento de diodos y transistores. El band-gap permite que un material se comporte como conductor o como aislante, sirviendo como llaves on-off.

Molibdenita, la nueva estrella de Silicon Valley

La Molibdenita es un mineral muy abundante en la naturaleza, de estructura laminar, compuesta por una capa de átomos de Molibdeno, entre dos capas de átomos de Azufre. Esta configuración tipo sandwich le confiere propiedades especiales. Actualmente, es ampliamente utilizada como aditivo EP (Extrema Presión) para lubricantes, pero también tendría aplicaciones dentro de la rama electrónica.

La presencia de capas alternadas de Azufre y Molibdeno generan en el material una banda prohibida de 1,8 eV que sirve como control del flujo de electrones. Con este material podrían construirse procesadores mucho más pequeños y que consuman unas 100.000 veces menos energía que uno de Silicio en estado de reposo.

Y aquí no se terminan sus beneficios, la Molibdenita, además de ser abundante en la naturaleza, es muy fácil de separarse en capas, mediante un proceso de exfoliación. La atracción entre capas de Azufre es muy baja, con lo que el material se puede hacer deslizar para ir obteniendo sandwiches de capas Azufre – Molibdeno – Azufre.

La Molibdenita podrá usarse junto al Grafeno para producir procesadores muchísimo más potentes y con menor consumo de energía, así como también, celdas fotoeléctricas más eficientes y en aplicaciones optoeléctricas que requieran de materiales semi-conductores transparentes.

Fuente: http://www.webayunate.com/molibdenita-el-material-que-le-hace-pelea-al-grafeno/

Grafeno, el material del futuro

El grafeno es un miembro de una familia más amplia de estructuras en las que los átomos de carbono se unen en láminas planas, formando un panal de abejas hexagonal (con un átomo en cada vértice). Situados muchos panales uno sobre otro, se tiene grafito. Si se enrolla una porción de una de esas láminas en forma de esfera, como un balón de futbol, se producen fullerenos, unas moléculas de tan gran interés que a sus descubridores se les concedió el Nobel de Química del año 1996, tal como comentamos oportunamente en este periódico (véase http://servicios.laverdad.es/cienciaysalud/6_3_35.html). Si el panal se enrolla formando un cilindro se tiene un nanotubo de carbono. Y, un grafeno sería un único de esos panales extendido, una estructura casi plana, bidimensional, ya que su espesor es el de sólo un átomo.

Fue en el año 2004 cuando el grupo de Manchester y otro ruso, el del Dr. Kostya Novoselov, del Instituto para la Tecnología de la Microelectrónica en Chernogolovka, Rusia, publicaron en la revista Science los primeros hallazgos sobre este material. En el año 2005, junto con otros investigadores holandeses e, independientemente, Philip Kim y sus colaboradores de Columbia University, exploraron algunas de las propiedades electrónicas del grafeno y lo más actual es un artículo, enviado a publicar a la revista Physical Review Letters, así como una excelente y recentísima revisión en la revista Nature Material, sobre la consecución práctica de fabricación de las membranas de grafeno de un átomo de espesor, con aplicaciones prácticas muy diversas.

El grafeno conduce la electricidad mejor que muchos materiales metálicos, porque los electrones pueden viajar en línea recta entre los átomos sin dispersarse. Esto podría significar que unos componentes electrónicos basados en este material serían más eficientes y consumirían menos electricidad. Un hipotético chip confeccionado con este tipo de transistores sería más rápido y permitiría crear computadoras más veloces.

El primer transistor de grafeno fue presentado en 2004, pero no funcionaba muy bien al tener pérdidas de corriente y no poder pasar a un estado bajo convenientemente. Esto se debía precisamente a que los electrones se movían demasiado bien entre los átomos.

El transistor monoatómico estaba confeccionado enteramente en una lámina de grafeno. Los elementos centrales son puntos cuánticos que permiten a los electrones fluir de uno a uno. Los puntos cuánticos están conectados a una región más ancha que funciona como la barrera de los transistores de efecto túnel. Foto: University of Manchester.

A lo largo de los años, los transistores de silicio han ido reduciendo su tamaño hasta los 45 nanómetros (nm), tecnología de fabricación en la que se basa actualmente Intel y AMD, ésta última para los chipsets gráficos. Esto ha permitido que la Ley de Moore se haya cumplido hasta el momento y que, cada 2 años, el número de transistores en un circuito integrado se haya podido duplicar. De hecho, si se consulta el roadmap de Intel, ya existen previsiones para los 32 nanómetros a corto plazo, e incluso para los 10 nanómetros. Sin embargo, la utilización de transistores de silicio tiene el límite máximo en esta cantidad, 10 (nm), tamaño a partir del cual el material deja de comportarse de forma estable.

Los nuevos transistores de grafeno trabajarán a temperatura ambiente, condición imprescindible para poder formar parte de los dispositivos electrónicos modernos. Ahora es necesario descubrir un método práctico de fabricación, antes de que el desarrollo pueda utilizarse para aplicaciones comerciales. Ahora bien, la tecnología podrá aplicarse a transistores ultra rápidos, dispositivos micromecánicos y sensores de tamaño microscópico. Actualmente el proceso de fabricación de transistores incluye cierto elemento de suerte, lo que provoca que la mitad de los intentos realizados terminen en procesos defectuosos. No obstante, Novoselov destaca que pronto serán capaces de descubrir una metodología mucho más eficaz. Según lo indicado, parece que los chipsets fabricados a partir de grafeno será de vital importancia durante los próximos años para la industria tecnológica.

PROPIEDADES

Para el profesor Eaves, experto en semiconductores de la Universidad de Nottingham el del grafeno es el más excitante descubrimiento llevado a cabo en la última década en la física del estado sólido. Y para el Dr Novoselov, colaborador del Dr. Geim, lo más importante es que las consecuencias no se limitarán a la aparición de unos pocos materiales, sino a un nuevo conjunto de miles de ellos diferentes, con amplias gamas de aplicaciones particulares. De hecho, hace cuatro años se realizaron un par de tesis doctorales sobre el grafeno. Actualmente, varios centenares están en marcha. ¿Cuáles son sus sugerentes propiedades? Bastantes. He aquí algunas:

Los electrones interaccionan con el panal del grafeno y se pueden mover por las celdas hexagonales, a una velocidad solo cuatrocientas veces inferior a la velocidad de la luz, muy superior usual de los electrones en un conductor ordinario, lo que es suficiente para que exhiban comportamientos relativistas. Además, los electrones mantienen esta velocidad incluso a muy bajas temperaturas comportándose como si no tuviesen masa en reposo. Por ello, para poder estudiar la física de estos electrones es necesario utilizar la ecuación de Dirac para fermiones sin masa.

El paso de los electrones (electricidad) por el grafeno origina un efecto Hall cuántico que es imprescindible para su comportamiento como semiconductor. Pero mientras que otros semiconductores sólo presentan este efecto a temperaturas muy bajas, el grafeno lo mantiene bien incluso a temperatura ambiente, lo que le convierte en un excelente semiconductor y su conductividad eléctrica no decae por debajo de un valor mínimo, incluso cuando no hay electrones libres en el grafeno. Este resultado es completamente contraintuitivo pues en cualquier otro material la conductividad eléctrica desaparece cuando no hay cargas.

El grafeno, actuando como semiconductor estable y bidimensional permite que los electrones se muevan libremente por el camino que más convenga, no ceñidos a un camino recto como en los transistores convencionales basados en las capacidades semiconductoras del silicio, que es empleado para crear pequeñísimos tubos por donde fluye la corriente eléctrica. Además, al contrario que en otros sistemas bidimensionales que tengan pequeñas impurezas, en el grafeno los electrones no se pueden quedar aislados en zonas donde no puedan salir.

En resumen, el grafeno es un semiconductor que puede operar a escala nanométrica y a temperatura ambiente, con propiedades que ningun otro semiconductor ofrece y todo apunta a que se podrán crear nuevos miniaturizados dispositivos electrónicos insospechados con este material, pudiéndonos acercar rápidamente a la prometedora computación cuántica, por lo que, previsiblemente toda la humanidad se verá favorablemente afectada. Aunque la realidad de sus aplicaciones no se evidenciará hasta que aparezcan los primeros productos comerciales, su importancia es ya enorme en la física fundamental porque gracias al nuevo material los fenómenos relativísticos cuánticos, algunos de ellos no observables en la física de alta energía, pueden ahora reproducirse y probarse en experimentos de laboratorio relativamente sencillos. Así ha sucedido con algunos aspectos de la teoría de la Relatividad de Einstein.

FABRICACIÓN

Cuando escribimos con un lápiz la fricción con el papel arranca haces de láminas, débilmente unidas entre sí, y las deposita en forma de escritura sobre la superficie del papel. Posiblemente, estamos produciendo también multitud de capas invisibles de grafeno. En los laboratorios, se obtuvo con sorprendente facilidad, frotando una porción microscópica de grafito sobre un chip de silicio, con lo cual quedaban depositadas alrededor de un centenar de láminas superpuestas. El silicio se puede disolver en ácido o bien se puede usar una cinta adhesiva para separar las láminas. En este último caso se pliega la cinta adhesiva para que quede pegada a las dos caras de la lasca de grafito y se abre de nuevo, con lo que se consigue la separación de láminas. Repitiendo la operación varias veces las láminas obtenidas son de menor espesor, hasta conseguir la monocapa de grafeno de un átomo de espesor. Hace unos meses los becarios de la Universidad de Columbia participantes en los proyectos sobre grafeno recibían por la labor anterior 10$ la hora. Como es lógico, ya existen varios proyectos industriales en desarrollo para la fabricación industrial de grafeno, siendo el más avanzado el del Georgia Institute of Technology usando láminas de carburo de silicio calentadas a 1300 °C, de modo que los átomos de silicio se van evaporando de la superficie mientras que los átomos de carbono que no se evaporan se van restructurando en forma de láminas de grafeno.

Fuente: http://servicios.laverdad.es/ababol/pg070519/suscr/nec9.htm

Molibdenita el material que compite con el grafeno

Los neutrinos son más veloces que la luz?

Neutrino detector tank at Los Alamos MPF

Tiene que haber algún error.

Esa era ayer la opinión general de los científicos tras escuchar la extensa exposición que dio en Ginebra Dario Autiero, uno de los 160 firmantes del artículo publicado en arxiv.org en el que se afirma haber detectado neutrinos moviéndose a mayor velocidad que la de la luz.
Como informábamos este jueves, durante un experimento llamado Opera, los investigadores enviaron haces de neutrinos desde el acelerador de partículas del CERN, en la frontera franco-suiza, al detector de Gran Sasso, en los Apeninos, a 730 km. de distancia. Allí, bajo 1.400 metros de sólida roca, lo que evita distorsiones de rayos cósmicos y de señales terrestres, se encuentra uno de los mejores detectores de neutrinos del mundo.
Se trataba, sencillamente, de medir la velocidad de los neutrinos, como parte de un experimento que nada tiene que ver con los resultados obtenidos. Y ahí llegó la sorpresa: un rayo de luz, a 300.000 km. por segundo (o más exactamente, a 299.792.458 metros por segundo), habría cubierto esa distancia en 2,4 milésimas de segundo, pero los neutrinos (se enviaron cerca de 15.000) tardaron 60 nanosegundos menos (un nanosegundo es la mil millonésima parte de un segundo). Parece una ventaja muy corta, pero las implicaciones son enormes.
Se tambalea la teoría de la relatividad

La primera reacción fue que debía de haber un error, ¿pero cuál? Esa es la gran pregunta y la razón principal de la convocatoria de ayer. Los autores del trabajo llevan meses intentando encontrar cuál es el fallo que les ha llevado a obtener unos resultados tan inesperados y espectaculares. Pero a pesar del esfuerzo, no lo han conseguido, y ahora piden ayuda a la comunidad internacional de físicos para que repitan de forma independiente el experimento y comprueben si esos resultados se repiten.
Si así fuera, la teoría especial de la Relatividad, uno de los pilares de la Física moderna, se tambalearía sin remedio, aunque el director general del CERN, Rolf Heuer, ha querido dejar claro que este descubrimiento no supone que la teoría de Einstein sea errónea porque pueden existir diferentes interpretaciones sobre el hallazgo.
Pero veamos por qué. Según la relatividad especial no es posible transmitir en el vacío información alguna a más velocidad que la de la luz. Y eso implica que nada que sea material o que tenga masa, por pequeña que sea, puede superar ese límite. Esa es, por lo menos hasta ahora, una verdad absoluta e indiscutible, la base sobre la que se construyen todas las demás teorías.
Si la teoría fuera cierta provocaría un caos en la navegación

Una verdad, por cierto, comprobada una y mil veces y cuyas predicciones se cumplen, en la Naturaleza, a rajatabla. Si la relatividad estuviera equivocada, por ejemplo, la red de satélites GPS daría posiciones equivocadas, con muchos km. de error. Lo que derivaría en un auténtico caos en la navegación aérea y marítima. Algo que, evidentemente, no ocurre. Y tampoco habríamos sido capaces de colocar vehículos robotizados sobre puntos concretos de la superficie de Marte, ni de enviar sondas espaciales al encuentro de asteroides en movimiento. Hitos que que, evidentemente, sí que hemos conseguido, con éxito y sin errores de consideración.
Por no hablar, también, de que superar la velocidad de la luz equivaldría a una «rotura» del tejido espaciotemporal que sustenta el Universo, y nos llevaría a posibilidad de realizar, por lo menos en teoría, viajes al pasado. En un Universo así, no existiría el principio de causalidad, es decir, que podríamos ver los efectos de un fenómeno cualquiera antes de que se produjeran sus causas. Por ejemplo, el brillo de una supernova antes de que la estrella que la origina explote.
Las supernovas, emisores de neutrinos

Los nuevos resultados contradicen mediciones anteriores de la velocidad de los neutrinos basadas en la explosión de supernovas, como la 1987A. Las supernovas, igual que el Sol, son potentes emisores de neutrinos. Pero en el caso de 1987

A los neutrinos llegaron prácticamente al mismo tiempo (tres horas antes) que los rayos de luz, lo cual es compatible con lo que sabemos de las supernovas. Si aplicáramos a esos neutrinos la velocidad observada ahora, habrían tenido que llegar cinco años antes de la explosión.
Por otra parte, en 2007 otro equipo de físicos norteamericanos realizó una medición parecida a la del CERN. Pero fue rápidamente descartada porque el margen de error del experimento era superior a la diferencia de velocidad encontrada a favor de los neutrinos, lo que invalidó los resultados. Las mediciones del CERN, sin embargo, son varias decenas de veces más precisas que aquellas, y no resultan tan fáciles de descartar.
El error, según los propios autores de la medición, podría estar también en la forma de medir el momento exacto en que los neutrinos salieron de los instrumentos del CERN para emprender su viaje hacia Italia. Cuando se trabaja con márgenes de tiempo tan pequeños (del orden de las milmillonésimas de segundo), cualquier cosa es importante.
Y luego existe una tercera posibilidad: Y es la de que, a pesar de todo, las medidas sean correctas. Algunas teorías apuntan a la existencia de otras dimensiones físicas que permanecen ocultas a escala macroscópica, pero que sí se manifiestan en el mundo subatómico junto a las cuatro habituales (tres espaciales y una temporal). Es posible que la extraordinaria velocidad de los neutrinos se deba a su paso por estas dimensiones «extra», a través de una especie de túneles dimensionales que reducirían, en la práctica, la distancia a recorrer. Es decir, que en ningún momento tuvieron que viajar a mayor velocidad que la de la luz para llegar más rápido que ella a su destino.
En resumen, cualquier cosa es preferible a reconocer, a las primeras de cambio, que la relatividad no funciona y que no existe ese límite de velocidad universal. Se abre ahora un periodo de profundas reflexiones y de intenso trabajo. Centenares de físicos en todo el mundo estudiarán en las próximas semanas, meses, o quizá años, el nuevo escenario. Y hallarán una explicación. Puede que al final el error aparezca y el elaborado edificio de la Física moderna siga en pie. O puede que no, y que este sea el día de un nuevo principio para una importante rama de la Ciencia. Sea cual sea el resultado, habremos avanzado en el camino de la comprensión del Universo que nos rodea y en el que nos ha tocado vivir. Sólo el tiempo lo dirá.

Para no perderse

¿Qué es un neutrino?
Es un tipo de partícula subatómica sin carga eléctrica y con una masa tan pequeña que es difícil de medir. Son tan livianos que apenas interaccionan con la materia. Miles de millones de neutrinos atraviesan cada segundo la Tierra de parte a parte (y a nosotros) como si no existiera.
¿Hay varias clases de neutrinos?
Si. Existen tres clases diferentes de neutrino, uno por cada familia leptónica: Neutrino electrónico, neutrino muónico y neutrino tauónico, asociados respectivamente al electrón, el muón y la partícula tau. También existen tres antineutrinos (antimateria) opuestos a los tres citados.
¿De dónde vienen?
La mayoría de los que llegan a la Tierra nacen en el Sol, como producto de la desintegración de otras partículas. También se crean en cantidades ingentes en explosiones del tipo supernova y existen otros que proceden directamente del Big Bang, la gran explosión que dio origen al Universo.
¿Hay otras dimensiones?
Muchas teorías postulan hasta once dimensiones, de las cuales sólo conocemos cuatro (tres espaciales y una temporal). Las siete dimensiones “extra” habrían existido en los primeros instantes tras el Big Bang y, al enfriarse el Universo, se habrían “congelado” y no serían perceptibles hoy. Algunos creen que las partículas subatómicas son capaces de penetrar en esas dimensiones.
¿Se puede viajar en el tiempo?
El tiempo que conocemos sólo va en una dirección, desde el pasado y hacia el futuro. Sin embargo, sobre el papel el tiempo también podría ir en la dirección contraria sin alterar mucho las ecuaciones. En la práctica, para conseguir viajar en el tiempo habría que viajar más deprisa que la luz, lo cual es imposible.
¿Por qué no se puede ir más deprisa que la luz?
Cualquiera que sea la masa inicial de un objeto en movimiento, ésta aumenta a medida que aceleramos (como un coche). A medida que nos acercamos a la velocidad de la luz (300.000 km. por segundo) la energía necesaria para impulsar cualquier objeto aumenta exponencialmente y, a partir de 300.000 km por segundo, se hace infinita.

Fuente: http://chaba.over-blog.es/article-buscan-el-error-que-explique-porque-los-neutrinos-son-mas-veloces-que-la-luz-85118311.html

La física de civilizaciones extraterrestres

En sus últimos años, Carl Sagan hizo en una ocasión esta pregunta, “¿Qué significa para una civilización tener una antigüedad de un millón de años?. Nosotros hemos tenido radiotelescopios y naves espaciales durante solo unas pocas décadas; nuestra civilización técnica tiene solo unos pocos cientos de años… una civilización avanzada de millones de años de antigüedad está mucho más lejos de nosotros de lo que nosotros estamos de un pequeño arbusto o un macaco”.

Aunque cualquier conjetura sobre tales civilizaciones avanzadas es solo una especulación vacía, uno puede usar las leyes de la física para establecer unos límites superiores e inferiores de estas civilizaciones. En particular, ahora que las leyes en el campo de la teoría cuántica, relatividad general, termodinámica, etc., están bastante bien establecidas, la física puede imponer unos amplios límites físicos los cuales restringen los parámetros de estas civilizaciones.

Esta pregunta no va más allá de una frívola especulación. Dentro de poco, la humanidad puede sufrir un shock existencial cuando la actual lista de una docena de planetas extrasolares del tamaño de Júpiter crezca a cientos de planetas del tamaño de la Tierra, gemelos casi idénticos de nuestro hogar celeste. Esto nos puede llevar a una nueva era en nuestra relación con el Universo: nunca más veremos el cielo nocturno de la misma forma otra vez, dándonos cuenta que los científicos podrían finalmente recopilar una enciclopedia identificando las coordenadas precisas de quizá cientos de planetas similares a la Tierra.

Hoy día, cada pocas semanas traemos noticias de que se ha descubierto un nuevo planeta extrasolar del tamaño de Júpiter, el último encontrado está a unos 15 años luz de distancia orbitando la estrella Gliese 876. El más espectacular de estos descubrimientos fue fotografiado por el Telescopio Espacial Hubble, el cual tomó unas sobrecogedoras imágenes de una planeta a 450 años luz de distancia siendo disparado al espacio por un sistema estelar doble.

Pero lo mejor está por llegar. A principios de la próxima década, los científicos enviarán una nueva clase de telescopio, el telescopio espacial de interferometría, el cual usa la interferencia de los rayos de luz para amplificar el poder de resolución de los telescopios.

Por ejemplo, la Misión de Interferometría Espacial ( Space Interferometry Mission o SIM ), que será lanzada a principios de la próxima década, consta de múltiples telescopios situados a lo largo de una estructura de 10 metros. Con una resolución sin precedentes aproximándose al límite físico de la óptica, el SIM es tan sensible que casi desafía la imaginación: orbitando la Tierra, ¡puede detectar el movimiento de una linterna agitada por un astronauta en Marte!

El SIM, además, allanará el camino para el Buscador de Planetas Terrestres (Terrestrial Planet Finder), que será lanzado a finales de la próxima década, y que debería identificar aún más planetas similares a la Tierra. Este podrá analizar las 1 000 estrellas más brillantes en un radio de 50 años luz desde la Tierra y se centrará en los 50 a 100 sistemas planetarios más brillantes.

Todo esto, además, estimulará un esfuerzo activo en determinar si alguno de ellos puede albergar vida, tal vez algunos con civilizaciones más avanzadas que la nuestra.

Aunque es imposible predecir las características exactas de tales civilizaciones avanzadas, podemos analizar sus límites usando las leyes de la física. No importa cuantos millones de años nos separen de ellos, ellos deben obedecer también las leyes de hierro de la física, las cuales están ya lo bastante avanzadas como para explicar todo, desde las partículas subatómicas hasta la estructura a enorme escala del Universo, a través de 43 órdenes de magnitud escalonados.

La Física de las civilizaciones de Tipo I, II, y III

La Escala de Kardashov es un método propuesto en 1964 por el astrofísico ruso Nikolái Kardashov para medir el grado de evolución tecnológica de una civilización. Tiene las siguientes tres categorías, basadas en la cantidad de energía utilizable que una civilización tiene a su disposición, que se incrementan de manera exponencial. La escala tiene tres categorías llamadas Tipo I, II y III. Estos se basan en la cantidad de energía utilizable que una civilización tiene a su disposición, y el grado de colonización del espacio. En términos generales, una civilización de Tipo I ha logrado el dominio de los recursos de su planeta de origen, Tipo II de su sistema solar, y Tipo III de su galaxia.

La civilización humana se encuentra actualmente (año 2011) alrededor de 0,72, con los cálculos que sugieren que podemos alcanzar el estado de Tipo I en unos 100-200 años, de Tipo II en unos cuantos miles de años, y de Tipo III entre unos 100.000 a un millón de años.
En concreto, podemos clasificar las civilizaciones por su consumo de energía, usando los siguientes principios:

1) Las leyes de la termodinámica. Incluso una civilización avanzada está limitada por las leyes de la termodinámica, especialmente por la Segunda Ley, y puede por lo tanto ser clasificada por la energía de que dispone.

2) Las leyes de la materia estable. La materia bariónica (por ejemplo basada en protones y neutrones) tiende a reunirse en tres grandes agrupaciones: planetas, estrellas y galaxias. (Esto está bien definido por producto de la evolución galáctica y estelar, fusión termonuclear, etc.) De esta forma, su energía estará basada también en tres tipos distintos, y esto marca el límite superior de su tasa de consumo de energía.

3) Las leyes de la evolución planetaria. Cualquier civilización avanzada debe incrementar su consumo de energía más rápidamente que la frecuencia de catástrofes que amenacen la vida (por ejemplo impactos de meteoritos, glaciaciones, supernovas, etc.). Si crecen más lentamente, están condenados a la extinción. Esto marca el límite inferior para la tasa de crecimiento de estas civilizaciones.

En un artículo original publicado en 1964 en el Journal of Soviet Astronomy, el astrofísico ruso Nicolai Kardashev teorizó que las civilizaciones avanzadas deben estar agrupadas de acuerdo a tres tipos: Tipo I, II, y III, las cuales han llegado a dominar las formas de energía planetaria, estelar y galáctica, respectivamente. Kardashev calculó que el consumo de energía de estos tres tipos de civilización estarían separados por un factor de muchos miles de millones. ¿Pero qué tiempo llevará alcanzar la situación de Tipo II y III?.

Antes de lo que pensamos

El astrónomo de Berkeley Don Goldsmith nos recuerda que la Tierra recibe alrededor de una mil millonésima de la energía del Sol, y que los humanos utilizan solo una millonésima de esta. De modo que consumimos alrededor de una mil billonésima parte de la energía total del Sol. En la actualidad, la producción energética total de nuestro planeta es aproximadamente de 10 trillones de ergios por segundo. Pero nuestro crecimiento energético aumenta de forma exponencial, y por lo tanto podemos calcular cuánto nos llevaría alcanzar la situación de Tipo II o III.

Goldsmith dice, “Mira lo lejos que hemos llegado en el uso de la energía una vez que hemos comprendido cómo manipularla, cómo obtener combustibles fósiles, y cómo crear energía eléctrica a partir de la fuerza del agua, y así sucesivamente; hemos aumentado nuestro uso de energía en una cantidad extraordinaria en solo un par de siglos comparado con los miles de millones de años de existencia de nuestro planeta… y de la misma forma podría esto aplicarse a otras civilizaciones”.

El físico Freeman Dyson del Instituto para Estudios Avanzados estima que, en un plazo no mayor de 200 años*, deberíamos alcanzar la situación de Tipo I. De hecho, creciendo a una modesta tasa de un 1% por año, Kardashev estimó que solo nos llevaría 3 200 años alcanzar la situación de Tipo II, y 5 800 años la situación de Tipo III.

Vivir en una civilización de Tipo I, II, o III

Por ejemplo, una civilización de Tipo I es plenmente planetaria, ha dominado la mayoría de formas de energía de su planeta. Su producción de energía puede estar en orden de miles de millones de veces la producción actual de nuestro planeta. Mark Twain dijo una vez, ”Todo el mundo se queja del clima, pero nadie hace nada para cambiarlo“. Esto podría cambiar con una civilización de Tipo I, la cual tenga suficiente energía para modificar el clima. También tendrían suficiente energía para alterar el rumbo de terremotos, volcanes, y construir ciudades en los océanos.

Actualmente, nuestra producción de energía nos califica para el estado de Tipo 0. Derivamos nuestra energía no del aprovechamiento de fuerzas globales sino de la combustión de plantas muertas (por ejemplo petróleo y carbón). Pero ya podemos ver las semillas de una civilización de Tipo I. Vemos el comienzo de un lenguaje planetario (Inglés), un sistema de comunicación planetario (Internet), una economía planetaria (la forja de la Unión Europea), e incluso los comienzos de una cultura planetaria (medios de comunicación, TV, música rock, y películas de Hollywood).

Por definición, una civilización avanzada debe crecer más rápido que la frecuencia de catástrofes que amenacen la vida. El impacto de un gran meteorito o cometa tiene lugar una vez cada pocos miles de años, una civilización de Tipo I debe dominar el viaje espacial para desviar los escombros en un marco de tiempo que no suponga un problema. Las glaciaciones tienen lugar en una escala temporal de decenas de miles de años, por lo que una civilización de Tipo I debe aprender a modificar el clima dentro de este marco temporal.

Las catástrofes artificiales e internas deben ser también tenidas en cuenta. Pero el problema de la contaminación global es solo una amenaza mortal para una civilización de Tipo 0; una civilización de Tipo I que ha vivido durante varios milenios como civilización planetaria, necesariamente lleva a cabo un balance planetario a nivel ecológico. Los problemas internos suponen una amenaza seria recurrente, pero tienen miles de años en los que resolver conflictos raciales, nacionales y sectarios.

Finalmente, tras varios miles de años, una civilización de Tipo I agotará la energía de un planeta, y derivará su energía del consumo de la completa producción de energía de sus soles, o aproximadamente mil billones de trillones de ergios por segundo.

Con su producción de energía similar a la de una pequeña estrella, deberían ser visibles desde el espacio. Dyson ha propuesto que una civilización de Tipo II podría incluso construir una gigantesca esfera alrededor de su estrella para usar de forma más eficiente la producción de energía total. Incluso si tratasen de ocultar su existencia deben, por la Segunda Ley de la Termodinámica, emitir residuos de calor. Desde el espacio exterior, su planeta brillaría como el adorno de un árbol de Navidad. Dyson incluso ha propuesto buscar específicamente emisiones de infrarrojo (más que las de radio y TV) para identificar estas civilizaciones de Tipo II.

Quizá la única amenaza seria para una civilización de Tipo II sería la explosión cercana de una supernova, cuya súbita erupción podría chamuscar su planeta con un fulminante chorro de Rayos-X, matando todas las formas de vida. De esta forma, quizás la civilización más interesante es la de Tipo III, por ser verdaderamente inmortal. Han agotado la energía de una estrella individual, y han alcanzado otros sistemas estelares. Ninguna catástrofe natural conocida por la ciencia es capaz de destruir una civilización de Tipo III.

Enfrentados a una supernova vecina, tendrían distintas alternativas, tales como alterar la evolución de la gigante roja moribunda que está cerca de explotar, o abandonar ese sistema estelar y terraformar un sistema planetario cercano.

Sin embargo, hay límites para una civilización emergente de Tipo III. Finalmente, se chocaría con otra de las leyes de hierro de la física, la teoría de la relatividad. Dyson estima que esto podría retrasar la transición a una civilización de Tipo III quizá millones de años.

Pero incluso con la barrera de la luz, hay un número de caminos para expandirse a velocidades cercanas a la luz. Por ejemplo, la última medida de la capacidad de los cohetes se toma mediante algo llamado “impulso específico” (definido como el producto del empuje y la duración, medidos en unidades de segundos). Los cohetes químicos pueden alcanzar impulsos específicos de varios cientos a miles de segundos. Los motores iónicos pueden obtener impulsos específicos de decenas de miles de segundos. Pero para obtener velocidades cercanas a las de la luz, se debe alcanzar un impulso específico de aproximadamente 30 millones de segundos, lo cual está muy alejado de nuestra capacidad actual, pero no para una civilización de Tipo III. Una variedad de sistemas de propulsión podría estar disponible para sondas de velocidad sub-luz (tales como motores de fusión ram-jet, motores fotónicos, etc.)

Fuente: http://extraplanetario.obolog.com/fisica-civilizaciones-extraterrestres-261718

%d bloggers like this: