Category: Tecnologia


La quinta disciplina de Peter Senge

Peter Senge es un claro exponente de la evolución de la Teoría de Sistemas aplicada a la empresa. Economista y actual jefe del Centro de Aprendizaje Organizativo del MIT (Massachussets Institute of Tecnology).

Senge junto a un equipo, confeccionan modelos cualitativos identificando en la empresas conceptos escritos y mentales que la gente utiliza en la organización: como son las normas y políticas, la conducta real de la gente, la estructura organizativa, su propósito y los datos numéricos; su objetivo es encontrar que rizos forman esos elementos.

Este enfoque dio origen a su libro denominado “La Quinta Disciplina”. Senge se basa en una cita de la revista Fortune: “olvide sus viejas y trilladas ideas acerca del liderazgo. La empresa de mayor éxito de la década del 90 será algo llamado organización inteligente” (Senge, 11), y postula, siguiendo a un ejecutivo, que “la capacidad de aprender con mayor rapidez que los competidores quizá sea la única ventaja competitiva sostenible” (Senge, 11).

Senge se basa en cinco disciplinas:

Individuales:

Pensamiento Sistémico

Dominio Personal

Modelos Mentales

Colectivos:

Visión Compartida

Aprendizaje en Equipo.

Senge nos dice que es muy importante que estas cinco disciplinas se desarrollen como un conjunto, el pensamiento sistémico, es el elemento que integra a las demás “en un cuerpo coherente de teoría y practica”.

Pensamiento Sistémico

El Pensamiento Sistémico está basado en la dinámica de sistemas y es altamente conceptual. Provee de modos de entender los asuntos empresariales mirando los sistemas en términos de tipos particulares de ciclos o arquetipos e incluyendo modelos sistémicos explícitos (muchas veces simulados por ordenador) de los asuntos complejos. Es un marco conceptual cuya esencia pretende producir una “Metanoia”, un “cambio de enfoque” y que nos ayuda de dos formas:

1.- A ver interrelaciones entre las partes más que cadenas lineales de causas y efectos.

2.- A ver los procesos de cambio más que fotografías estáticas.

Su práctica comienza con el concepto de “retroalimentación” (feedback), un concepto que nos muestra cómo las acciones pueden tanto reforzarse como contrarrestarse (o balancear) entre ellas. Ayuda a aprender a reconocer tipos de “estructuras” que se repiten una y otra vez.

Antes de continuar con el Dominio Personal, Senge nos dice que para el pensamiento sistémico existen Obstáculos Fundamentales:

Obstáculos Fundamentales para el Pensamiento Sistémico

1.- “Yo soy mi puesto”. Se suele confundir nuestro trabajo con lo que en realidad es nuestra identidad. Existen muchas evidencias de que gran parte de los fracasos del “outplacement” es la incapacidad de las personas para sentirse capaces de hacer algo distinto a lo que estaban haciendo habitualmente, por ejemplo; “¿Cómo podría yo hacer otra cosa: yo soy tornero”. Cuando se nos pregunta con qué nos ganamos la vida, respondemos las tareas que hacemos todos los días, no los propósitos de la organización a la que pertenecemos. Cuando algo falla, siempre será “culpa de algún otro”, de modo que nos es difícil cambiar o innovar porque “lo que sabemos” forma parte de nuestra personalidad y el cambio la amenaza.

2.- El enemigo externo. Todos culpamos a algo externo.

3.- La ilusión de hacerse cargo. En contra de la reactividad, la pro actividad es la tendencia a “hacer algo” antes de que sea tarde. Es parte de la tan conocida “actitud estratégica”. Sin embargo, muchas veces, ésta es reactividad disfrazada, una forma de agresividad en contra de un supuesto “enemigo” externo.

4.- La fijación en los hechos y la parábola de la “rana hervida”. Estamos acostumbrados a ver la vida como una serie de hechos, y creemos que para cada hecho hay una causa obvia. Esto desemboca en explicaciones “fácticas”. La fijación en los hechos era bueno para el cavernícola, pero hoy la crisis de nuestras empresas y sociedades vienen siempre de procesos lentos y graduales. Senge menciona la metáfora de la “rana hervida”, como una explicación factica, si se la introduce en un cazo con agua y se va calentando a fuego muy lento, la rana no se da cuenta del cambio lento y muere hervida sin darse cuenta.

Además no puede existir el aprendizaje generativo (aprender cosas nuevas) si estamos dominados por los hechos inmediatos. Podemos optimizar, pero no crear.

5.- La ilusión de que se aprende de la experiencia. La experiencia es un potente método para aprender pero ¿qué sucede cuando no vemos las consecuencias de nuestros actos porque estos llegan mucho más tarde en el tiempo? Sin embargo, la mayoría de las decisiones que tomamos en las organizaciones son de este tipo. De modo que también “aprendemos” cosas de las que desconocemos su resultado. En las “nuevas tecnologías” es mucho más importante “desaprender” lo que se sabe para poder comprender lo nuevo. Esto explica la cada día más grande, e inevitable, necesidad de despedir o jubilar anticipadamente al personal por su incapacidad para aprender lo nuevo (y es precisamente el personal más cualificado en las antiguas habilidades el que más incurre en este error). La experiencia pues, ahoga muchas veces la innovación y el aprendizaje, y esto explica cómo, las organizaciones inteligentes prefieren gente dispuesta y capaz de aprender continuamente que gente con “experiencia” y sólido currículo.

6.- El mito del equipo administrativo. Además, lo que en un principio son divisiones funcionales o el “nivel estratégico” se convierten en feudos de “expertos profesionales” que, de modo corporativo, defienden su territorio y compiten contra la organización antes que seguir “colaborando” con ella. Los grupos de directivos son más expertos en defender sus puntos de vista que en resolver problemas complejos, además de rehuir la indagación colectiva porque amenaza su posición de expertos.

Las Leyes de la Quinta Disciplina

1.- Los problemas de hoy derivan de las “soluciones” del ayer. Quienes resuelven un nuevo tipo de problema no suelen ser quienes lo provocaron, de modo que “van de una parte a otra del sistema” sin ser detectados como un problema global.

2.- Cuanto más se presiona, más presiona el sistema. A este proceso se le conoce como “realimentación compensadora”. Claros ejemplos son: Dejamos de fumar y engordamos; y esto nos hace perder autoestima y fumamos para aliviar el estrés de estar gordos. La madre quiere que su hijo se lleve bien con los compañeros de escuela y se entromete en su vida, impidiendo que su hijo aprenda por sí solo y como consecuencia los compañeros se van.

3.- La conducta mejora antes de empeorar. La realimentación compensadora siempre implica una “demora”, un paréntesis entre el beneficio a corto plazo y el perjuicio a largo plazo.

4.- El camino fácil lleva al mismo lugar. Tendemos a aplicar soluciones conocidas a situaciones no conocidas. Como dijo alguien: “si sólo tienes un martillo, entonces todo problema tiende a convertirse en un clavo” (Morgan, 1989). Necesitamos toda una caja de herramientas.

5.- La cura puede ser peor que la enfermedad. Las soluciones no sistémicas suelen padecer del síndrome de la dependencia, de modo que se convierten en hábitos adictivos impidiendo progresivamente la capacidad de la organización para solucionar sus propios problemas. Dejamos que expertos solucionen nuestros problemas, haciéndonos más dependientes y necesitados de ellos, a la vez que más incapaces de comunicarnos y de solucionar nuestros problemas a solas.

6.- Lo más rápido es lo más lento. Todos los sistemas tienen una velocidad óptima que no es la máxima. El cáncer es un ejemplo de ir a más velocidad por parte de unas células, retando al sistema a contrarrestarlas y poniendo en peligro el sistema total.

7.- La causa y el efecto no están próximo en el espacio y el tiempo. Los cambios pequeños pueden producir resultados grandes, pero las zonas de mayor apalancamiento a menudo son las menos obvias. El Pensamiento Sistémico suele demostrar que las soluciones obvias no suelen funcionar. Pero, inversamente, el “principio de la palanca” sugiere cómo pequeños cambios bien focalizados pueden producir mejoras significativas y duraderas si se realizan en el sitio apropiado. Ello implica descubrir el punto de apalancamiento, el cual no suele ser evidente casi nunca para los miembros del sistema y no están próximas en el espacio y el tiempo respecto de los síntomas.

9.- Se pueden alcanzar dos metas aparentemente contradictorias. Un ejemplo es que se cree que aprender y divertirse son cosas contrapuestas y que, en la suposición de que aprender es aburrido, basan sus métodos educativos en “recompensar” el “aprendizaje” con la “recompensa” de “ir a la excursión” u “obtener un sobresaliente”. Estas concepciones son ajenas al espíritu Sistémico usado en las organizaciones inteligentes y, por ejemplo en colegios para niños con un alto coeficiente intelectual, nunca se recompensa al niño porque éste tiene una sed ilimitada por conocer y aprender cosas de modo natural, divirtiéndose en el mismo acto de aprender. La recompensa daña la capacidad que todos tuvimos para aprender espontáneamente sin distinguir el trabajo del juego.

10.- Dividir un elefante por la mitad no genera dos elefantes pequeños. Tres ciegos encontraron un elefante. “es una cosa grande y áspera, como una alfombra” dijo el primero cogiendo una oreja. Cogiendo la trompa dijo el segundo: “Yo tengo la verdad, es un tubo recto y hueco”. Y el tercero, cogiendo una pata delantera, señaló: “Es poderoso y firme como una columna”. Estos ciegos simulan a los jefes de Marketing, Producción y Finanzas de muchas compañías. Así, nunca se sabrá lo que es un elefante o una organización. No siempre es lo más adecuado ver los problemas de manera global, pero imponer rígidas divisiones entre departamentos y ensalzar la alta especialización incrementan alarmantemente los costes de coordinación (incluyendo más personal para que haga de intermediario entre las partes).

11.- No hay culpa. Solemos culpar a las circunstancias externas de nuestros problemas: “alguien” nos perjudicó (los competidores, la prensa, los profesores, etc.). El pensamiento Sistémico muestra que nosotros y las causa de nuestros problemas formamos un sólo sistema. La cura radica de la relación con nuestro “enemigo”.

Un cambio de enfoque

La Organización Inteligente de Senge es la organización que aprende. Este aprendizaje no lo es sólo en el sentido de aprendizaje adaptativo, sino que también tiene lugar para el aprendizaje generativo, el cual, se basa en la creatividad, permite lo que él (y su equipo) llama “metanoia”: “… desplazamiento mental o cambio de enfoque, tránsito de una perspectiva a la otra”. Metanoia viene literalmente de meta (más allá) y noia (de la mente): trascendencia, y, aunque el catolicismo lo tradujo como “arrepentimiento”, los gnósticos antiguos lo concebían como el despertar de la intuición compartida y del conocimiento directo de lo más elevado. Este concepto contiene, para Senge, el significado más profundo del término “aprendizaje”.

El Pensamiento Sistémico es una disciplina para ver totalidades que abarcan campos tan diversos como las ciencias físicas y sociales, la ingeniería y la administración de empresas.

El Pensamiento Sistémico distingue dos tipos de complejidad: la de detalles y la dinámica. La segunda implica que la conexión entre causa y efecto obedece a causas sutiles y donde los efectos de una intervención en el tiempo no son obvios. Se basan en los dos conceptos de realimentación y de servomecanismo.

Senge menciona un ejemplo de estos dos conceptos podría ser el proceso de llenar un vaso de agua. Para nuestro pensamiento lineal, este proceso nos lo solemos representar de la siguiente forma:

Al llenar el vaso estamos desempeñando muchos procesos: “monitoreamos” la “brecha” entre su nivel y nuestro objetivo (el nivel de agua deseado) y que involucra 5 variables: el nivel deseado, el nivel actual del vaso, la brecha entre ambos, la posición del grifo y el flujo del agua. Como dice Senge:

“De modo que la clave para ver la realidad sistémicamente consiste en ver círculos de influencia en vez de líneas rectas. Este es el primer paso para romper con el marco mental reactivo que se genera inevitablemente con el pensamiento “lineal”. Cada círculo cuenta una historia. Al seguir los flujos de influencia, vemos patrones que se repiten una y otra vez, mejorando o empeorando las situaciones.

De cualquier elemento de una situación, podemos trazar flechas que representen la influencia sobre otro elemento:

La flecha de posición del grifo apunta hacia el flujo del agua. Todo cambio en la posición del grifo modificará el flujo del agua. Pero las flechas nunca parten aisladamente:

Para seguir la historia, comencemos en cualquier elemento y observemos la acción, siguiendo el círculo como el tren de un ferrocarril de juguete. Un buen sitio para comenzar es la acción realizada por quien tomó la decisión:

Fijo la posición del grifo, el cual ajusta el flujo del agua, el cual cambia el nivel del agua. Al cambiar el nivel del agua, la brecha percibida (entre el nivel actual y el deseado) cambia. Al cambiar la brecha, la posición de mi mano en el grifo cambia de nuevo. Y así sucesivamente…

Al leer un diagrama de círculo de realimentación, la habilidad principal consiste en ver la “historia” que cuenta el diagrama: cómo la estructura crea un patrón de conducta determinado (o, en una estructura compleja, varios patrones de conducta) y cómo se puede influir sobre ese patrón. Aquí la historia consiste en llenar el vaso de agua y cerrar gradualmente el grifo a medida que se llena el vaso

Desde el Pensamiento Sistémico, el actor humano también forma parte del proceso de realimentación, no está separado de él, y esto representa un profundo cambio de conciencia.

Por medio de este ejemplo se puede resumir en tres, las bases del Pensamiento Sistémico: Realimentación Reforzadora, Realimentación Compensadora y la Demora.

Continuar leyendo…………

El cyberpunk como movimiento contracultural

Shibuya, Tokyo, descrita como una “futurística Times Square” por el New York Times. Sobre la influencia de Japón en el género, William Gibson ha declarado, “El Japón contemporáneo simplemente es cyberpunk”.

Cyberpunk es un subgénero de la ciencia ficción, conocido por su enfoque en la “alta tecnología y bajo nivel de vida” y toma su nombre de la combinación de cibernética y punk. Mezcla ciencia avanzada, como las tecnologías de la información y la cibernética junto con algún grado de desintegración o cambio radical en el orden social. De acuerdo con Lawrence Person:
Los personajes del cyberpunk clásico son seres marginados, alejados, solitarios, que viven al margen de la sociedad, generalmente en futuros distópicos donde la vida diaria es impactada por el rápido cambio tecnológico, una atmósfera de información computarizada ubicua y la modificación invasiva del cuerpo humano.
Lawrence Person

El argumento de la escritura cyberpunk se centra a menudo en un conflicto entre hackers, inteligencias artificiales, y megacorporaciones, enmarcado en el planeta Tierra en un futuro cercano, en oposición del futuro lejano o panorama de encuentros galácticos en novelas como Fundación de Isaac Asimov o Dune de Frank Herbert. Las visiones de este futuro suelen ser distopías post-industriales, pero están normalmente marcadas por un fomento cultural extraordinario y el uso de tecnologías en ámbitos nunca anticipados por sus creadores (“la calle encuentra sus propias aplicaciones para las cosas”). La atmósfera del género en su mayoría hace eco en el cine negro y se utiliza a menudo en este género técnicas de novelas policíacas. Entre los primeros exponentes del género cyberpunk se encuentran William Gibson, Bruce Sterling, Pat Cadigan, Rudy Rucker y John Shirley. El término cyberpunk se acuñó en los años 1980 y continúa en uso.

A diferencia de la ciencia ficción de la Nueva ola, que importó las técnicas y las preocupaciones estilísticas que ya existían en literatura y la cultura, el cyberpunk se originó en la ciencia ficción primero, antes de incrementar la tendencia dominante de su exposición. A comienzos y a mediados de los años ochenta, el cyberpunk se convirtió en un tema de moda en los círculos académicos, donde comenzó a ser objeto de investigación del postmodernismo. En este mismo período, el género ingresó a Hollywood y se convirtió en uno de los estilos de la ciencia-ficción del segmento del cine. Muchas películas influyentes tales como Blade Runner y la trilogía Matrix se pueden ver como consecuencias prominentes de los estilos y de los temas del género. Los videojuegos, los juegos de mesa y los juegos de rol, tales como Shadowrun2 3 4 o el apropiadamente nombrado Cyberpunk 2020,5 ofrecen a menudo guiones que están fuertemente influenciados por las películas y la escritura cyberpunk. Iniciados los años 1990, algunas tendencias de la moda y la música fueron etiquetadas como cyberpunk.

Mientras que una gran variedad de escritores comenzó a trabajar con conceptos del cyberpunk, nuevos sub-géneros emergieron, que se centraban en la tecnología y sus efectos sociales de una manera diferente. Los ejemplos incluyen el steampunk, iniciado por Tim Powers, Kevin Wayne Jeter y James Blaylock, y el biopunk (o alternativamente ribofunk), en el cual Paul Di Filippo es prominente. Adicionalmente algunas personas consideran trabajos tales como La era del diamante de Neal Stephenson como el inicio de la categoría postcyberpunk.

Protagonistas

Los protagonistas de la escritura cyberpunk generalmente son hackers, quienes son moldeados frecuentemente en la idea de héroe solitario que combate la injusticia: vaqueros, rōnin, etc. Son ellos a menudo gente no privilegiada colocada en situaciones extraordinarias, más que científicos brillantes o capitanes estrella buscando intencionalmente avances o aventura, y no siempre son verdaderos “héroes”, (una comparación conveniente puede ser la ambigüedad moral del personaje de Clint Eastwood en la Trilogía del dólar).

Uno de los personajes prototipo del género cyberpunk es Case, de la novela Neuromante de William Gibson. Case es un “vaquero de la consola”, un hacker brillante, que traiciona a sus socios del crimen organizado. Robado su talento con una lesión que lo deja lisiado; infligida en venganza por sus socios criminales, Case recibe una inesperada única oportunidad en la vida de ser curado con asistencia médica experta; pero a cambio de su participación en otra empresa criminal con un nuevo equipo. Como Case muchos protagonistas cyberpunk son manipulados, puestos en situaciones donde tienen poca o ninguna opción, y aunque ellos pueden verse en esto, no necesariamente llegan a estar más lejos de lo que previamente estaban. Estos anti-héroes –“criminales, parias, visionarios, desertores e inadaptados”– no experimentan el “camino de héroe” de Campbell como un protagonista de la epopeya homérica o una novela de Alexandre Dumas. Ellos en cambio, traen a la memoria el investigador privado de la novela policíaca, que podría solucionar los casos más complejos, pero nunca recibir una recompensa justa. Este énfasis sobre los inadaptados y descontentos -que Thomas Pynchon llama el “pretérito” y Frank Zappa el “olvido de la Gran Sociedad”- es el componente “punk” del cyberpunk.

This slideshow requires JavaScript.

Sociedad y gobierno

El cyberpunk se sitúa como un defensor de la libre circulación de la información. Decididamente opuesto a los derechos de propiedad intelectual. Acérrimo defensor de las tecnologías de cifrado para garantizar la privacidad así como del dinero electrónico y de todas las modernas tecnologías digitales, en general.

La literatura cyberpunk es usada a menudo como una metáfora para las preocupaciones actuales sobre los efectos y el control de las corporaciones sobre las personas, la corrupción en los gobiernos, la enajenación y la vigilancia tecnológica. El cyberpunk puede ser entendido como una inquietud a los lectores y un llamado a la acción. Esto a menudo expresa el sentido de rebelión, sugiriendo que uno pudiera describirlo como un tipo de ciencia ficción contracultural. En las palabras del autor y crítico David Brin,
…una mirada más cercana, [de los autores cyberpunk], revela que retratan casi siempre a sociedades futuras con gobiernos absurdos y patéticos… Cuentos populares de ciencia ficción de Gibson, Cadigan y otros son una representación Orwelliana de la acumulación del poder en el próximo siglo, pero casi siempre en manos secretas más adineradas o en corporaciones de élite
The Transparent Society, Basic Books, 1998

Las historias cyberpunk se han considerado a veces como pronósticos ficticios de la evolución del Internet. El mundo virtual ahora conocido como Internet, aparece a menudo bajo varios nombres, incluyendo “ciberespacio”, “la Red”, “el Metaverso” o “la Matriz”. En este contexto es importante observar que las descripciones más tempranas de una red global de comunicaciones vinieron mucho antes que la World Wide Web se incorporara al conocimiento popular, aunque no antes de que los escritores tradicionales de la ciencia ficción tales como Arthur Charles Clarke y en algunos comentaristas sociales como James Burke comenzaran a predecir que tales redes eventualmente se formarían.

El cyberpunk como movimiento contracultural

El cyberpunk es también un movimiento contracultural. Como tal tiene su origen en una tradición libertaria y una profunda desconfianza en el uso de las nuevas tecnologías que, si bien pueden proporcionan mayores niveles de comodidad y progreso, también pueden alienar al individuo y ayudar a controlarlo.

Del mismo modo que la fuerza estética del cyberpunk ha influido en otros géneros más allá de la ciencia ficción, la fuerza de sus futuros, claramente distópicos, ha influido en la sociedad modificando nuestro punto de vista acerca de las nuevas tecnologías. Así, siendo una de las funciones de la ciencia ficción alertar a la sociedad de los peligros de sus actitudes y creaciones, el cyberpunk ha sido uno de los movimientos más exitosos dentro del género.

Sin embargo, el cyberpunk no es un movimiento reaccionario. No se posiciona contra la tecnología, sino contra determinados usos de la misma. Así, del mismo modo que los poderosos se valen de la tecnología para mantener su control sobre las masas, cualquier acción en contra suya deberá también contar con el uso de tecnologías sofisticadas.

Además de posicionarse contra las implicaciones negativas de la ciencia y la tecnología, el cyberpunk muestra situaciones que se producen en un escenario económico controlado por organizaciones cada vez más poderosas e influyentes a la vez que alejadas de la ciudadanía. Se denuncia así una fractura social en la que los ricos y poderosos se valen de su dinero y poder para manipular la sociedad mediante el control de la información.

Algo a tener en cuenta al analizar el cyberpunk como corriente social es que sus autores no se posicionan contra algo que será, sino contra algo que está siendo. Es esta cercanía de los contenidos lo que ha hecho este movimiento tan inquietante.

Música y moda

El término “música cyberpunk” puede referirse a dos categorías algo superpuestas. Primero puede denotar la amplia gama de los trabajos musicales que las películas cyberpunk utilizan como banda sonora. Estos trabajos varían en género desde la música clásica y el jazz –usada en Blade Runner, y que por otra parte evoca el ambiente del cine negro- hasta el noise y la música electrónica. Típicamente las películas hacen uso de la electrónica, electronic body music, música industrial, noise, futurepop, rock alternativo, rock gótico e intelligent dance music para crear la sensación “apropiada”. El mismo principio aplica a los videojuegos. Por supuesto, mientras los trabajos escritos no están asociados a bandas sonoras con tanta frecuencia como las películas, la alusión a trabajos musicales es usada para el mismo efecto. Por ejemplo la novela gráfica Kling Klang Klatch (1992), una fantasía oscura sobre un mundo de juguetes vivos, donde un oso de peluche amargado tiene una adicción hacia el azúcar y una predilección por el jazz.

La “música cyberpunk” también describe los trabajos asociados con la tendencia de la moda que emergió del desarrollo de la ciencia ficción. El libro Future Shock de Alvin Toffler influyó tanto en los creadores del techno en Detroit a principios de los 80, como Juan Atkins y su grupo Cybotron, como a los pioneros europeos del sintetizador Kraftwerk, produciendo canciones de clara inspiración distópica. La banda candiense de thrash/punk/progressive metal Voivod fue una de las primeras en autodenominarse cyberpunk. En los 1990, la cultura popular comenzó a incluir un movimiento en la música y en la moda que llamaron también “cyberpunk” y que llegó a ser particularmente asociada con las subculturas rave y techno. Con el nuevo milenio llegó un nuevo movimiento de bandas industriales que hacían música de “portátil”. Punks y okupas se armaron con equipo digital y fusionaron la tecnología con sonidos callejeros. La subcultura hacker documentada en lugares como el archivo de la jerga contempla este movimiento con sentimientos encontrados, desde los autoproclamados cyberpunks que están frecuentemente “inclinados” hacia el cuero negro y el cromo quienes hablan entusiasmados de tecnología en lugar de aprender o verse involucrados en esto. (“La actitud no sustituye a la capacidad”, entrada del Archivo). Sin embargo estos autoproclamados cyberpunks al menos están “emocionados con las cosas correctas” y típicamente respetan a las personas que actualmente trabajan con esto de “la naturaleza hacker”.

Ciertos géneros musicales como el drum and bass fueron directamente influenciados por el cyberpunk, incluso generando un subgénero completo llamado neurofunk.

Un claro ejemplo de la influencia cyberpunk en la música son la banda Sigue Sigue Sputnik y el video del tema de Duran Duran Union of the Snake.

El álbum de 1982 del grupo electrónico The Cassandra Complex, se llama Cyber Punk.

En la actualidad podemos decir que el género que representa el espíritu cyberpunk es el Futurepop, de la mano de bandas como Mind.In.A.Box, VNV Nation, Rotersand, Covenant, Colony 5 o incluso bandas de Synthpop como Neuroactive, Neuroticfish y Seabound.

Estos grupos destacan por el intenso uso del Vocoder (sintetizador de voz) en sus canciones, ritmos bailables entre 120-140 bpm, letras futuristas, y melodias pegadizas.

Variantes y herederos del cyberpunk

Entre los subgéneros del cyberpunk está el steampunk que se ubica en una era victoriana ucrónica pero con una visión negra del mundo. El término fue acuñado originalmente en 1987 como broma para describir algunas de las novelas de Tim Powers, James Blaylock y Kevin Wayne Jeter, pero con el tiempo William Gibson y Bruce Sterling ingresaron al subgénero con su novela en colaboración La Máquina Diferencial y el término fue empezado a tomarse en serio.20

Otro subgénero similar de aún muy reciente clasificación es el que se ha venido a llamar wirepunk, heredero del steampunk, que en lugar de tomar como partida el siglo XIX, se centra en la tecnología del siglo XX, ahora que ya supone un tiempo pasado. Un ejemplo claro es la saga literaria de Jeanne DuPrau iniciada con City of Ember.

Los inicios de 1990 vieron el nacimiento del biopunk, un estilo derivado construido no sobre la base de la tecnología sino sobre la biología. En estas historias la gente es cambiada de varias formas, pero no por medios mecánicos, sino por manipulación genética de varios de sus cromosomas. Paul di Filipo es visto como el más prominente escritor biopunk, aunque Shaper/Mechanist de Bruce Sterling es su mayor influencia.

El género emergente llamado postcyberpunk continúa preocupándose por los efectos de los ordenadores, pero sin dar por supuesta la distopía ni dar tanta importancia a los implantes cibernéticos.

También heredero del cyberpunk podemos considerar el concepto de singularidad tecnológica utilizado en la ciencia ficción más reciente, que recoge su preocupación por el desarrollo de la inteligencia artificial hasta el extremo, y el rol que los humanos podríamos adoptar en tales circunstancias.

Fuente: Wikipedia

Electrónica molecular

La electrónica molecular, a veces llamada moletrónica, es la rama de la ciencia que estudia el uso de moléculas orgánicas en la electrónica.

Los primeros trabajos acerca de la transferencia de cargas eléctricas entre moléculas fueron realizados por Robert Mulliken y Albert Szent-Gyorgi en 1940. Sin embargo, el primer dispositivo moletrónico no fue desarrollado hasta 1974, año en el que se construye un biestable de melanina. En 1988 fue descrita una molécula capaz de actuar como un transistor de efecto campo.

Los recientes avances en nanotecnología y el descubrimiento de polímeros conductores y semiconductores, merecedor del premio Nobel de Química del año 2000, han permitido avances espectaculares en la materia. Dispositivos como los diodos orgánicos emisores de luz (OLED por sus siglas en inglés), transistores orgánicos de efecto campo (OFET por sus siglas en inglés) o paneles solares orgánicos son ya conocidos en la industria.

Las principales ventajas de la electrónica molecular frente a la electrónica tradicional basada en materiales inorgánicos como el silicio son facilidad de fabricación, maleabilidad, bajo coste y mayor escala de integración.

Gran parte de nuestra actividad cotidiana implica la utilización de dispositivos que funcionan gracias a componentes electrónicos. Estos componentes se han perfeccionado durante las últimas cuatro décadas utilizando básicamente materiales semiconductores inorgánicos, entre los cuales el silicio es el protagonista indiscutible. Sin embargo, la tecnología del silicio tiene sus limitaciones y, desde principios de los años noventa, se está dedicando un gran esfuerzo científico al desarrollo de una nueva electrónica basada en la utilización de materiales moleculares electroactivos. Estos materiales son de naturaleza orgánica, incluyendo desde moléculas de pequeño tamaño (10 átomos) hasta polímeros (macromoléculas), y son capaces de responder a estímulos eléctricos y luminosos de forma similar a los conductores y semiconductores inorgánicos.

Sin lugar a dudas, el acontecimiento que más ha contribuido al desarrollo de los materiales moleculares electroactivos fue el descubrimiento de los polímeros conductores (plásticos que conducen la electricidad), merecedor del premio Nobel de Química del año 2000. Siempre nos han enseñado, y nuestra experiencia cotidiana así lo confirma, que los plásticos, a diferencia de los metales, no conducen la corriente eléctrica. De hecho, los plásticos se utilizan para aislar los hilos de cobre en el cableado eléctrico. Esta perspectiva ha cambiado en los últimos años con el descubrimiento de que ciertos plásticos (polímeros conjugados con alternancia de simples y dobles enlaces carbonocarbono, Nos encontramos, por tanto, ante nuevos materiales que nos ofrecen las propiedades eléctricas y ópticas de los metales y semiconductores, junto con las atractivas propiedades mecánicas, las ventajas de procesado y el bajo coste económico de los polímeros. A estas ventajas hay que añadir el gran potencial de la síntesis química para modificar las propiedades del material mediante cambios en la estructura química de los sistemas componentes.

Los materiales moleculares electroactivos están siendo desarrollados industrialmente para su utilización en aplicaciones tan diversas como baterías orgánicas, músculos artificiales, pantallas de teléfonos móviles, células solares, narices electrónicas, etc …

https://ociointeligente.wordpress.com/2011/11/17/el-futuro-sustituto-del-silicio-grafeno-o-molibdenita/
 
https://ociointeligente.wordpress.com/2011/11/03/grafeno-el-material-del-futuro/

Que son los Ooparts?

Oopart es el acrónimo en inglés de Out of Place Artifact (literalmente, ‘artefacto fuera de lugar’). Es un término acuñado por el zoólogo estadounidense Ivan T. Sanderson que hace referencia a objetos paleontológicos y arqueológicos que en apariencia se han encontrado en lugares o épocas donde se creía imposible por sus características (complejidad tecnológica, referencias a la civilización actual, etc.) “anacronismo”; o porque no haya objetos similares de la misma procedencia.

Interpretación popular

El término ha sido ampliamente utilizado para refutar teorías como la teoría de la evolución o la estimación científica de la edad de la Tierra. Los Oopart también se han utilizado por los aficionados a la ufología y otras pseudociencias como base para la teoría de que la humanidad habría sido fundada y/o alterada por civilizaciones extraterrestres mucho más avanzadas o evolucionadas (Creacionismo alienígena), ya que desde su punto de vista algunos de los pueblos antiguos poseerían, precisamente por este motivo, conocimientos científicos en determinadas áreas al menos tan avanzados como los actuales, así como tecnología insólita para su tiempo.1 Por otro lado, la consideración de Oopart depende en gran parte de los conocimientos que se dominan de un periodo histórico, por ello es tan relativa como la veracidad de las teorías de quienes lo utilizan como argumento.

Interpretación científica

Si bien es cierto que las características aparentemente extraordinarias de algunos de estos objetos aún no poseen una interpretación desde la arqueología, paleontología u otras areas de estudio, o bien fueron catalogados como Ooparts para luego salir de esta clasificación,2 en general la comunidad científica se muestra escéptica frente a las interpretaciones que califican a estos objetos como “fuera de lugar”. Un gran número de estas han sido refutadas como productos de fenómenos como el palimpsesto, la pareidolia, la falsificación o simplemente la ignorancia respecto a las culturas que produjeron el objeto en cuestión.

Fuente: Wikipedia

http://www.ivoox.com/playerivoox_ee_377573_1.html

http://www.ivoox.com/playerivoox_ee_377617_1.html

INSTRUMENTO DE ANTICITERA – GRECIA

Frente a la Isla de Antikythera (Grecia) en el Mar Egeo, fue hallado en el año 1.900 por un grupo de pescadores de esponjas a unos 60 metros de profundidad, un extraño bloque de aspecto metálico recubierto de residuos calcáreos, procedente del naufragio de una galera griega, cuando estos procedían a rescatar los objetos de valor de dicha nave y que según la datación de los expertos naufragó en el siglo I a. C.

Una vez finalizadas las tareas de rescate un año más tarde y cuando se realizaba su clasificación, el arqueólogo griego Valerios Stais reparó en la presencia de este extraño objeto, en el cual parecían apreciarse varios mecanismos de engranaje, algo totalmente ilógico para un descubrimiento de 2.000 años de antigüedad.

Tras un examen minucioso y la limpieza de residuos a base de ácidos, tanto Stais como otros expertos llegaron a la increíble conclusión de que este artefacto debía de ser algún reloj astronómico o instrumento de navegación muy sofisticado. Especialistas en epigrafía, detectaron la presencia de inscripciones que hacían referencia al Sol, la Luna y otros cuerpos celestes.

Calculadora astronómica para unos, astrolabio para otros, o simple objeto incatalogable para muchos, este extraño mecanismo permanece expuesto desde su descubrimiento en el Museo Arqueológico Nacional de Atenas. Realizado en bronce, consta de 40 ruedas de engranaje (la principal dispone de 240 dientes), 9 escalas móviles y 3 ejes (el mayor servía para poner en marcha todo el increíble mecanismo). Se cree que en sus orígenes alcanzaba unas dimensiones de 8 X 16 X 32 centímetros, con un cuadrante de frente y otros dos más por la parte posterior.

A mediados de los años 50, el conocido aventurero Jacques Cousteau, capitán del buque de estudios oceanográficos Calypso, se interesó en este más que curioso mecanismo, y se animó a seguir buscando en la misma zona donde se encontró medio siglo antes la conocida como “Máquina de Antikythera”. De estas labores de búsqueda, el Capitán Cousteau rescató un importantísimo tesoro arqueológico, y también pequeños restos de extraños engranajes de incomprensible utilización.

La enorme dificultad para poder explicar la presencia de tan “moderno mecanismo” en plena época de esplendor del Imperio de Roma, ha hecho que la comunidad científica haya dejado en el olvido a éste curioso objeto rescatado de las aguas.

No habrá quien falte en asegurar (en un claro ejemplo al que nos tienen muy acostumbrados los “negadores profesionales” de molestas evidencias) que la máquina de Antikythera no es más que un simple reloj que algún navegante arrojó en el siglo XIX desde su barco y que cayó por “casualidad” (¿cuántas veces habremos oído ésta palabra?) en las proximidades de la vieja galera griega naufragada.

CALAVERA DE CUARZO – YUCATAN, BELICE

En el año 1924, Anna Le Guillon Mitchell-Hedges de 17 años de edad, con su padre adoptivo, el explorador inglés Frederick Albert Mitchell-Hedges, descubren una calavera de cristal de roca en las ruinas de un templo de la ciudad Maya “de las pie
dras caídas” en Lubaantún, Belice.Excepto la ausencia de suturas craneanas, es una reproducción casi perfecta de una calavera de mujer. Pesa 5 kilos. Se compone de dos partes, la mandíbula inferior ajustándose perfectamente con la parte superior.Las propiedades ópticas de la calavera son sorprendentes : *alumbrada por debajo, la luz sale por las cuencas. *Alcanzada por detrás por los rayos del sol, un intenso haz luminoso ( capaz de encender fuego ) sale por las cuencas, la nariz y la boca Está hecha con cuarzo natural sumamente puro, de dióxido de silicio “piezoeléctrico” anisótropo. Las dos partes están talladas en el mismo bloque de cristal de roca. Ninguna huella de instrumento, ni siquiera rastro microscópico. Sin señal de fabricación, resulta imposible fecharla ( el cristal no envejece ). Con una tecnología moderna con diamante haría falta un año de trabajo para conseguir el aspecto exterior ( con huellas de fabricación, lo que no lleva la calavera ), en cuanto a los efectos prismáticos,
su reproducción resulta aún más dificultosa.La fabricación manual hubiera necesitado 300 años de una labor continua Un investigador del equipo declaró:” ¡Este maldito cacharro ni siquiera debería existir ! ”


BATERIA DE BAGDAD
En 1938, un arqueólogo austriaco, el Dr Wilhelm König, estudió un “objeto de culto” depositado en el fondo de los sótanos del museo de Bagdad. Se trata de un vasito de terracota de 15 centímetros de altura por unos 7,5 centímetros de diametro.Emergiendo del tapón bituminoso, una varilla de hierro
está insertada en el interior de un cilindro de cobre y aislada de él por un tapón de asfalto en su base ; siendo el cilindro de cobre soldado con su capucho por una aleación plomo/estaño. Varias de estas pilas fueron encontradas en las ruinas de Khujut Rabu, ciudad Parta, en los alrededores de Bagdad. Los Partos, guerreros feroces, dominaron la región entre 250 antes de Jesucristo y 230 después de Jesucristo. Diez pilas eléctricas más fueron descubiertas más tarde en Cesiphon. El cobre lleva una pátina azul característica de la galvanoplastia con la plataEntonces se piensa que son mucho más antiguas porque se encontraron igualmente vasos de cobre chapados con plata en un sitio Sumerio datado por lo menos de 2 500 años antes de Jesucristo.Otro ingeniero, C, dio el siguiente paso. Había que encontrar un líquido que estuviera al alcance de los habitantes de Mesopotamia que fuera alcalino. Y se topó con el zumo de uva. En una replica de la pila Grey colocó una estatua de plata en el interior, pasando luego a activar la corriente, utilizando el zumo de uva como alcalino. La pieza de plata pasó a tener un color dorado en unas dos horas, no quedaban dudas de que era una pila eléctrica de entre 0,5 y 1,5 voltios, según los experimentadores.

MAPA PIRI REIS – ESTAMBUL
En el año 1929, durante la renovación del museo del palacio Topkapi Sarayi de Estambul, el director de los museos nacionales turcos, el Sr Halil Edem encontró el mapa famoso de piel de gacela de Piri Reis, pintado en el año 1513.

Este mapa representa el Océano Atlántico con una parte de las costas americanas, africanas y del Antártico.

Estos mapas se levantaron según los datos de cartas, de portulanos de cuatro portugueses que enseñan el Sind, el Hind y China y de un mapa dibujado por Cristóbal Colón.
Son tan exactos, para navegar sobre los siete mares, como los mapas de nuestros países. ”

Dice que compiló su mapa a partir de veinte otros procedentes de la Gran Biblioteca de Alejandría y fechados por lo menos del siglo IV antes de Jesucristo.

A primera vista este mapa puede parecer inexacto, si uno está acostumbrado a los mapas Mercator, pero no, si conoce las proyecciones estereográficas polares ( mas precisamente es una proyección cordiforme ). Sin duda alguna este mapa formaba parte de un conjunto que constituía un mapamundi semejante a este :

El mapa de Piri Reis fue estudiado por muchos investigadores :

* El ingeniero americano A. Mallery.
* M. Walters de la sección de hidrografía de la U.S. Navy.
* El profesor D. Lineham, director del observatorio de Weston y jefe de los servicios de sismología del año geofísico.
* El profesor C.H. Hapgood del Keene College, New Hampshire, EE.UU., autor de la teoría sobre el corrimiento de la corteza terrestre.
* El profesor R. Strachan, del Massachusetts Institute of Technology.
* El Teniente-Coronel H.Z. Ohlmeyer, Comandante del 8° escuadrón de reconocimiento técnico de la US Air Force.

Resulta de estas investigaciones que este mapa es imposible, y por motivos numerosos, si se tienen en cuenta los conocimientos de su época, fuera de su tiempo :

* La isla de Marajo en la desembocadura del río Amazonas sólo fue descubierta en el año 1543.

* Las islas Malvinas fueron descubiertas en el año 1592.

* Los Andes están representados , a pesar de que todavía no se les conoce.

* El llama, mamífero típico de América del Sur, está pintado sobre los Andes, y fue en 1598 cuando los españoles lo identificaron.

* Las grandes islas por encima del ecuador, desconocidas, corresponden a las altiplanicies submarinas de los islotes Sn Pedro y Sn Pablo, sobre la Gran Dorsal Atlántica ( cuya existencia nadie sospechaba ).

* En él se ven las costas del Antártico que se descubrirá sólo en 1818, es decir 300 años más tarde.

* América del Sur está unida con el Antártico por un istmo que desapareció hace 10 000 años.

* Por fin, el elemento más sorprendente, el que más plantea problemas :
Las orillas del Antártico que se pueden ver son las de la Tierra de la Reina Maud ¡ sin ningún hielo !
Este trazado fue confirmado en 1949 con los apuntes sísmicos de una expedición anglosueca.
Aún si quedan algunos científicos para seguir pretendiendo que el casquete entero data de varios millones de años, otros aceptan la posibilidad que esta parte del Antártico pudiera emerger de los hielos durante aproximadamente 9 000 años, hace por lo menos ¡6000 años!

RUEDA DEL PRINCIPE SABU – EGIPTO
Realizando unas excavaciones en el año 1.936, en la zona arqueológica de Sakkara, fue descubierta la Tumba del Príncipe Sabu (nº 3111), hijo del faraón Adjuib, gobernante de la I Dinastía (3.000 a. C.). Entre los utensilios del ajuar funerario que fueron extraídos, a B. Walter Emery le llamó poderosamente la atención un objeto que definió inicialmente en su informe Las Grandes Tumbas de la I Dinastía como: -…un recipiente con forma de tazón de esquisto…-. Años más tarde, en su obra citada con anterioridad, Egipto Arcaico, hacía un comentario que viene a resumir perfectamente la realidad y situación de este incómodo “cachivache”: “…… no se ha conseguido ninguna explicación satisfactoria sobre el curioso diseño de este objeto……”.

Este objeto al que se refería B. Walter Emery en sus informes, tiene 61 centímetros de diámetros, y 10,6 centímetros de altura en la zona central. Está fabricado es esquisto, una roca muy quebradiza y frágil, que requiere un tallado muy laborioso. Su forma se asemeja a la de un plato o volante de coche cóncavo, con una especie de tres cortes o palas curvas que recuerdan a la hélice de un barco, y en el centro de ésta, un orificio con un reborde que sobresale como si fuera el receptor de algún eje de una rueda o de algún otro mecanismo desconocido, dispuesto para girar.

Como bien es sabido por todos, la postura que mantiene la egiptología oficial respecto a la aparición y uso de la rueda por parte de los antiguos egipcios, es muy clara y no deja lugar a ninguna duda. Su introducción en Egipto nos aseguran, fue debida a la invasión de los hicsos al final del Imperio Medio, 1.640 a. C., que la utilizaron, entre otras cosas, en sus carros de guerra, y que era conocida también en ese momento por otros muchos pueblos de Oriente Medio. La pregunta entonces es inevitable: si no es una rueda, ¿qué es el extraño objeto que apareció en la Tumba de un príncipe de la I Dinastía, 1.400 años antes de la invasion de los hicsos?.

A pesar de la complejidad de este problema, el tema se agudiza aún más a raíz de los estudios técnicos que diferentes investigadores han llevado acabo, impulsados por el sorprendente y extraño diseño de este artilugio.

El también egiptólogo Cyril Aldred llegó a la conclusión de que, independientemente de lo que fuese aquel objeto, su diseño se correspondía sin duda, a una reproducción de un objeto metálico anterior mucho más antiguo. De hecho, esta rueda de esquisto apareció en la Tumba del Príncipe Sabu, junto con otros extraños objetos de cobre, prácticamente el único metal que conocían los egipcios en aquella época. La duda nos asalta al pensar cómo pudieron diseñar un objeto tan delicado y tan complejo estructuralmente, hace más de 5.000 años. Una estructura que en el caso de sus tres extraños cortes o palas curvas, nos induce a pensar casi inmediatamente en la utilización de este objeto en un medio líquido. Este detalle, junto al orificio sobresaliente en la parte central, nos hace sospechar también que este objeto sólo sea una pequeña parte de algún mecanismo más complejo, y que se salvó gracias a una reproducción en piedra que por alguna desconocida razón, realizó un artista, con unas no menos desconocidas herramientas.

Pero…, ¿qué mecanismos existían hace 5.000 años en el Valle del Nilo?.

Dentro de la típica política de los arqueólogos y egiptólogos oficialistas, este objeto no es más que una bandeja o el pedestal de algún candelabro, con un diseño producto de la “siempre recurrida casualidad”. Aunque también es casualidad, que este curioso objeto coincida con el diseño de una de las piezas que la Compañía Lokheed de Misiles y del Espacio, desarrolló para ser encajada herméticamente dentro de un cárter lleno de lubricante. Sea lo que sea, este objeto encontrado en una tumba de Sakkara con una edad que como mínimo alcanza los 5.000 años, sigue constituyendo uno de los misterios mejor guardados entre las paredes del viejo Museo de El Cairo.

Rosetta Stone – Piedra Rosetta

La piedra de Rosetta es parte de una antigua estela egipcia de granodiorita1 con texto grabado que proveyó la clave para el entendimiento moderno de los jeroglíficos egipcios. La inscripción registra un decreto que fue expedido en Menfis en el año 196 antes de Cristo, en favor del rey Ptolomeo V. En el decreto aparecen tres textos: el superior consta de 14 renglones escritos en antiguos jeroglíficos egipcios, el texto medio consta de 32 renglones en egipcio demótico y el texto inferior consta de 53 renglones en griego antiguo.1 Sus dimensiones son: 112,3 cm de alto (máximo), 75,7 cm de ancho, 28,4 cm de grosor.1

La estela, originalmente expuesta dentro de un templo, fue probablemente trasladada durante el periodo copto de cristianismo primitivo o el medieval. Fue descubierta casualmente en 1799 por un soldado de la expedición francesa a Egipto cuando miembros de las tropas napoleónicas realizaban trabajos para la construcción de un fuerte en Rosetta (Raschid) en el delta del Nilo. Como el primer texto trilingüe conocido, la piedra Rosetta despertó gran interés público por su potencial para descifrar el idioma egipcio antiguo que hasta entonces no se había podido traducir. Copias litográficas y moldes en yeso empezaron a circular entre los museos europeos y estudiosos. Mientras tanto, tropas británicas derrotaban a los franceses en Egipto en 1801 y la piedra original cayó en posesión británica bajo la Capitulación de Alejandría. Transportada a Londres, ha sido exhibida públicamente en el Museo Británico desde 1802. Es uno de los objetos más visitados del Museo Británico.

Se trata del hallazgo casual de una de las más importantes piezas arqueológicas de la historia de la lengua egipcia y, por extensión, de las lenguas antiguas. Fue descubierta el 15 de julio de 1799 por el capitán francés Pierre-François Bouchard en el pueblo egipcio del delta del Nilo denominado Rosetta (también llamado Rashid), cuando las tropas capitaneadas por Napoleón Bonaparte se encontraban construyendo un fuerte, como parte de las actividades militares en la lucha contra las de Gran Bretaña en las tierras de Egipto.

La piedra iba a ser transportada a Francia por los miembros del Instituto de Egipto, pero los ejércitos ingleses, que habían desembarcado en la primavera de 1801, la confiscaron como botín de guerra, pese a las enardecidas protestas de Étienne Geoffroy Saint-Hilaire ante el general británico Hutchinson. La piedra de Rosetta se exhibe actualmente en el Museo Británico de Londres desde 1802.2 En el lado izquierdo lleva una inscripción con pintura blanca que dice «Captured in Egypt by the British Army in 1801» (Capturada en Egipto por el ejército británico en 1801), y en el derecho otra inscripción, «Presented by King George III» (Presentada por el rey Jorge III).

El texto se compone de tres lenguas: el egipcio clásico en forma de jeroglíficos; el demótico, que continua el anterior, con gran influencia del griego; y el griego, propiamente dicho. La primera traducción completa del texto griego apareció en 1803. Sin embargo, pasaron veinte años antes de que fuera anunciado el desciframiento del texto egipcio por Jean-François Champollion en París en 1822. Transcurrieron aun más años antes de que los estudiosos fueran capaces de leer otras inscripciones y la literatura en egipcio antiguo de manera aceptable y coherente. Las principales ventajas para su desciframiento fueron:

Reconocer que la piedra ofrecía el mismo texto en tres idiomas distintos con sus tres escrituras correspondientes (1799). Por tanto era de carácter plurilingüe.

  •     Que el texto demótico usaba caracteres fonéticos para deletrear nombres extranjeros (1802);
  •     Que el texto jeroglífico hacía lo mismo, y que había similitudes generales con el texto demótico (Thomas Young, 1814)
  •     Que el texto contenía nombres extranjeros con caracteres fonéticos, que también fueron usados para deletrear palabras egipcias (Champollion, 1822-1824).

Además, la comunidad copta conservaba un antiguo idioma, para fines litúrgicos, que poseía notable similitud con el hablado por los egipcios dos mil años atrás. Champollion lo estudió y dedujo las principales claves de la gramática del Antiguo Egipto.

Desde su descubrimiento, la piedra ha sido el foco de rivalidades nacionalistas, como la transferencia de su posesión de Francia a Gran Bretaña durante las Guerras Napoleónicas, la larga disputa sobre el valor de las contribuciones de Young y Champollion para el descifrado de la piedra y, en los últimos años, las demandas para que la piedra retorne a Egipto.

Otras dos copias fragmentadas del mismo decreto fueron descubiertas después y otras inscripciones bilingües o trilingües, incluyendo dos decretos ptolemaicos anteriores, (el decreto de Canopus de 283 antes de cristo, y el decreto de Menfis de Ptolomeo IV, de 218 antes de cristo). La Piedra de Rosetta no era la única inscripción bilingüe, pero fue la llave esencial para poder leer la literatura del Antiguo Egipto y conocer su civilización. Por analogía, el término Piedra de Rosetta se utiliza, en otros contextos, como nombre de las pistas esenciales en un nuevo campo del conocimiento.

Gracias a Thomas Young, Jean-François Champollion y otros estudiosos de la escritura del Antiguo Egipto, hoy puede ser considerada como una joya en la historia del lenguaje y la transcripción.

Sólo dos veces fue trasladada la piedra del Museo Británico: durante la Segunda Guerra Mundial, para su protección, y en 1972, con ocasión del 150 aniversario del descifrado de los jeroglíficos, cuando fue expuesta en el Museo del Louvre varias semanas.

Hay una reproducción de la piedra Rosetta en el Distrito de Figeac (Lot), la ciudad natal de Champollion, y es obra del artista Joseph Kossuth, mide 11 x 8,5 m, es de granito negro (traído desde Zimbabue), y en su pavimento están inscritos los textos en caracteres jeroglíficos, demótico y griego. La plaza lleva el nombre de Place des écritures (‘Plaza de las escrituras’). En el Museo Egipcio de El Cairo también se exhibe una copia.

Contenido

El texto escrito en griego antiguo comienza así: «El nuevo rey, habiendo recibido el reino de su padre…». Narra una sentencia de Ptolomeo V, describiendo varios impuestos que había revocado, ordenando además que la estela se erigiese y que el decreto fuese publicado en el lenguaje de los dioses (jeroglíficos) y en la escritura de la gente (demótica).

Tradicionalmente se pensaba que el decreto escrito en la Piedra de Rosetta fue ideado en demótico por los sacerdotes de Menfis hacia el año 197 a. C. Pero los últimos estudios de expertos en demótico han comprobado que la inscripción original fue compuesta en griego y traducida posteriormente al demótico, aunque a veces poco fielmente.

A giant copy of the Rosetta stone, by Joseph Kosuth in Figeac, France, the birthplace of Jean-François Champollion.

Traducción de un fragmento del texto de la piedra de Rosetta

Bajo el reinado del joven, que recibió la soberanía de su padre, señor de las insignias reales, cubierto de gloria, el instaurador del orden en Egipto, piadoso hacia los dioses, superior a sus enemigos, que ha restablecido la vida de los hombres, Señor de la Fiesta de los Treinta Años, igual que Hefaistos el Grande, un rey como el Sol, gran rey sobre el Alto y el Bajo País, descendiente de los dioses Filopáteres, a quien Hefaistos ha dado aprobación, a quien el Sol le ha dado la victoria, la imagen viva de Zeus, hijo del Sol, Ptolomeo, viviendo por siempre, amado de Ptah. En el año noveno, cuando Aetos, hijo de Aetos, era sacerdote de Alejandro y de los dioses Soteres, de los dioses Adelfas, y de los dioses Evergetes, y de los dioses Filopáteres, y del dios Epífanes Eucharistos, siendo Pyrrha, hija de Filinos, athlófora de Berenice Evergetes; siendo Aria, hija de Diógenes, canéfora de Arsínoe Filadelfo; siendo Irene, hija de Ptolomeo, sacerdotisa de Arsínoe Filopátor, en el (día) cuarto del mes Xandikos (o el 18 de Mejir de los egipcios).

Rosseta Stone Software

Rosetta Stone es un programa para aprender idiomas que es producido por Rosetta Stone, Inc.. El título de este programa es una referencia a la Piedra Rosetta, una piedra con inscripciones que ayudó a los investigadores a descifrar la escritura del Egipcio Antiguo.

Rosetta Stone utiliza una combinación de imágenes, texto y sonido, donde los niveles de dificultad suben a medida que el estudiante avanza. En estas lecciones el estudiante aprende vocabulario y funciones gramaticales sin traducción alguna. El objetivo del programa es que los estudiantes aprendan el idioma que estudian de la manera que aprendieron su idioma materno.

Uso del Programa

Una unidad de Rosetta Stone con sus divisiones. Las ilustraciones en cada división indican la función de los ejercicios. La instrucción del idioma se hace por medio de unidades donde cada unidad tiene 10-12 lecciones(el número de lecciones varía dependiendo de la unidad). Cada lección esta dividida entre A B C D y E. En cada lección el estudiante del idioma tiene que elegir la imagen correcta entre cuatro imágenes. Las mismas imágenes y las mismas oraciones son utilizadas en todos los idiomas
Estas son las funciones de cada sección de las lecciones
A: Escuchar y leer En este ejercicio un hablante nativo dice una palabra o frase y el estudiante tiene que elegir la imagen correcta. Esta sección contiene texto para que el estudiante lea al mismo tiempo lo que el nativo dice.

B: Escuchar En este ejercicio el hablante nativo dice una palabra o frase y luego el estudiante elige la imagen correcta. En este ejercicio no se incluye texto ya que es sólo para escuchar.

C: Leer Aquí sólo se presentas las imágenes con el texto. No hay voz del hablante nativo; el estudiante tiene que leer el texto en las imágenes solamente y así escoger la imagen que representa el texto.

D: Hablar Aquí el estudiante escucha al hablante nativo hablar y luego se le pide que repita. La voz del estudiante es evaluada por sistema de reconocimiento de voz que compara la voz del estudiante a la voz del nativo. Se necesita un micrófono para que el sistema de reconocimiento de voz pueda evaluar al estudiante.

E: Escribir Aquí el estudiante escucha una frase que luego tiene que escribir. Al presionar enter, el programa le dice donde están sus errores. Si no hay errores, el estudiante pasa a la siguiente imagen.

Niveles

Todos los idiomas excepto Latín usan el mismo set de palabras y oraciones en el mismo orden, con las mismas imágenes (incluso algunas imágenes son repetidas en diferentes lecciones). Hay tres niveles de enseñanza, cada uno vendido por separado, o pueden ser comprados juntos por un descuento.

Nivel I consiste de ocho unidades que empiezan con palabras como “niño”, ” Avión”, “Perro”, después avanza a los números, el tiempo pasado y futuro, y la unidad final consiste en dar direcciones. La unidad 1-4 tienen 10 lecciones más una lección de repaso cada una; las unidades 5-8 tienen 11 lecciones más una unidad de repaso cada una. En total son 92 lecciones.

Estos son algunos de los temas en el Nivel I:

Direcciones: “¿Cómo llego a…”
Formas afirmativas y negativas de verbos
El presente, el pasado y el futuro
Comida, comer, y beber
Relaciones familiares
Profesiones y actividades
Objectos directos
Decir la hora
Números hasta el 100
Objetos de preposiciones
Ropa y el vestirse
Estar solo, en grupo, o con amigos
Vehículos, muebles, e instrumentos musicales
Figuras, colores, y localizaciones ( la niña está a la derecha de…)

Nivel II consiste de las unidades 9-11. Estas unidades son más avanzadas que las del nivel I ya que en ellas se enseñan conceptos gramaticales más avanzados; por ejemplo el subjuntivo. Las lecciones también incluyen temas como ir al banco, ir de compras, y viajar.

En algunas lecciones se muestran videos cortos para ilustar algunos verbos. Las unidades 16 y 17 consisten completamente de caricaturas humorísticas, algunas con texto. En total son 118 lecciones.

Estos son algunos de los temas en el Nivel II:

Saludos y conversaciones
Viajar, transportación, y transacciones
Verbos en la voz pasiva
Las medidas: longitud, peso, volumen, temperatura y distancia
Ir de compras e ir a comer a restaurantes
Preguntar; formas de referencia
Imperativos
El tiempo y la ropa
Actividades de oficina y terminología
Cláusulas del subjuntivo
Conversaciones sociales comunes
El calendario
Geografía política
Los cinco sentidos; enfermedad y salud

Nivel III usa unidades más convencionales ya que usa videos mucho más largos que los del nivel II y también usa textos más largos para expandir el nivel de enseñanza.

Estos son algunos de los temas en el Nivel III:

Llegando al aeropuerto
Alquilar un coche
Tiempos subjetivos del verbo
Encontrando un apartamento
Construcciones causativas
Negociación de un arriendo
Pronombres personales, reflexivos, e intensivos
Ir de compras al mercado
Comprando y vendiendo
Pronombres relativos
Situaciones de trabajo

Versiones

Es difícil saber cual versión es la más reciente en los programas que distribuye Rosetta Stone ya que esta información no se hace disponible en su página web ni en los programas. A mediados del 2006, la versión de muestra era 2.1.4 pero Macword había evaluado la versión 3.0 varios meses antes. La version 3.0 ya esta empezando a salir y en el paquete de compra dice la version del programa. Rosetta Stone no hace que las actualizaciones de cada version estén disponible en línea; en vez de esto prefieren mandar un CD de actualización con cada orden. Esto ha causado que los usuarios tengan varias versiones en su computadora ya que muchos CD anteriores no son compatibles con otras versiones más nuevas. Las versiones nuevas tienen fotos de mejor calidad que las de sus precedentes.

Uso en el ejército de los Estados Unidos

En el 2005, Rosetta Stone firmó un contrato con el ejército de los Estados Unidos. El contrato, que vale 4.2 millones de dólares por un año, hace el programa de Rosetta Stone disponible a todos los miembros activos del ejército de EE.UU sin costo alguno. El contrato fue renovado en el 2006.

El contrato busca fortificar las habilidades lingüísticas del personal del ejército para que estos puedan tener al menos comunicación básica en el idioma donde se encuentren. Por ejemplo, muchos miembros activos usan el programa para aprender Pashto, Farsi o Árabe, hablados en Afghanistán, Irán, y el Medio Oriente, respectivamente.

La manera en que el programa es disponible a los soldados es por medio de una registración en línea. Cuando un soldado se registra para utilizar el programa se le da un nombre de usuario y una contraseña para que pueda entrar a utilizar el programa. En el 2006, 63,000 soldados se habían registrado para utilizar este servicio.

Críticas

La crítica más frecuente del programa es la falta de sensibilidad hacia los idiomas que enseña y sus respectivas culturas. Todos los programas presentan los mismos conceptos en el mismo orden, usando las mismas imágenes que en su mayor parte fueron tomadas en la ciudad de Washington, DC. en una área cercana a las instalaciones de Fairfield.

En 2007, Mark Kaiser, director del centro de lenguajes de la Universidad de California, Berkeley, evaluó la versión de Ruso. En su evaluación el profesor fue áspero llamando al programa como “muy inadecuado por un número de razones.” No sólo notó la falta de contexto cultural en cada idioma (diciendo que nunca había visto un rollo de papel higiénico en Rusia en ninguna de sus visitas) pero también dijo que algunas palabras y frases estaban muy adheridas al Inglés.

Como ejemplo Kaiser señaló una lección donde se muestra una imagen de dos personas remando y la imagen es asociada con la frase en Inglés “They are using a boat” (están usando un bote) En Ruso, esto sería traducido literalmente como “Они пользуются лодкой.” Pero, según Kaiser, ningún nativo del idioma Ruso usaría el verbo ‘usar’ en este contexto; un verbo específico al viaje por agua sería preferible para un nativo de Ruso. Por ejemplo, “Они плывут/катаются на лодке” (ellos están remando en el bote) sería usado en el contexto donde se tienen dos personas remando. Kaiser también señaló que algunas preposiciones introducidas en las primeras lecciones toman diferentes terminaciones y por lo tanto hacen que un estudiante principiante de Ruso se sature con tantas terminaciones.

Unos meses antes, Donald McRae de la Universidad de Brock, fue más amable con la versión de Alemán, llamándola “muy buena pero con algunas reservas”. En contraste con Kaiser, McRae dijo que el programa tenía muy buena pedagogía y era extremadamente efectivo.

Sin embargo, McRae estuvo en desacuerdo con la declaración de Fairfield donde se dijo que el programa puede completamente substituir un curso de idiomas de nivel principiante. Como Kaiser, McRae notó un punto donde el programa no indicaba una sutil distinción entre los verbos alemanes que significan ‘correr’. El verbo ‘laufen’ es utilizado para describir a un perro corriendo, pero este verbo normalmente indica ‘caminar’; ‘rennen’ que significa ‘correr a gran velocidad’ es utilizado para describir a un caballo. McRae concluyó que sin el contexto, un estudiante podía razonablemente concluir que ‘rennen’ aplica sólo para animales. “Estoy convencido”, escribió, “que cualquier curso de idiomas requiere la oportuna intervención de un buen maestro.”

Fuente: Wikipedia

Fantastic Mr. Fox Stop Motion

Stop Motion

El stop motion, parada de imagen, paso de manivela, foto a foto o cuadro por cuadro es una técnica de animación que consiste en aparentar el movimiento de objetos estáticos por medio de una serie de imágenes fijas sucesivas. En general se denomina animaciones de stop motion a las que no entran en la categoría de dibujo animado, ni en la animación por ordenador; esto es, que no fueron dibujadas ni pintadas, sino que fueron creadas tomando imágenes de la realidad.

Hay dos grandes grupos de animaciones stop motion: la animación con plastilina o cualquier otro material maleable, llamada en inglés claymation, y las animaciones utilizando objetos rígidos.

La animación con plastilina puede hacerse al “estilo libre”, cuando las figuras se van transformando en el progreso de la animación. Puede también orientarse a personajes, que mantienen una figura consistente en el transcurso de la película.

Métodos y variantes

El stop motion se utiliza para producir movimientos animados de cualquier objeto, incluyendo juguetes, bloques y muñecas. Esto se conoce como «objeto de animación».

Stop motion es también el medio para la producción de pixilación, la animación de la vida humana o animal. Ejemplos de ello son las películas de Mike Jittlov como asistente en The wizard of speed and time (1980), el largometraje del mismo nombre (1987-89), el corto francés de 1989 Gisele Kerozene por Eisa Cayo y Jan Kunen, y algunos trabajos del animador escocés Norman McLaren.

El go motion es una variante del “stop motion”, por el que aplicando un sistema de control a muñecos (animatronic) se les induce a realizar movimientos mientras se registra la animación fotograma a fotograma. Como resultado se produce un “efecto de blur” sobre las partes en movimiento que aumenta la sensación de realismo.

Una variación del stop motion es la animación gráfica de fotografías (en su totalidad o en partes). Algunos ejemplos son Frank Film y Braverman’s Condensed Cream of Beatles (1972).

En el cine: de los orígenes hasta hoy

Los orígenes de esta técnica se funden con la propia historia de la cinematografía. Entre sus pioneros se encuentra el cineasta ruso Ladislaw Starewicz, quien en el año 1912 realizó una de las primeras películas en stop motion utilizando como modelos insectos reales. Con el título de “La venganza del camarógrafo”, Starewicz narra la historia de una familia de escarabajos que se destruye a causa de la infidelidad entre sus cónyuges. España cuenta con los trabajos de Segundo de Chomón quien en 1908 realizó en París El hotel eléctrico. Otro destacado pionero en esta técnica fue Willis O’Brien, quien animó King Kong en 1933. Su alumno Ray Harryhausen hizo un gran número de películas con la misma técnica.

El stop motion fue una técnica muy utilizada en la Europa del Este: Jirí Trnka, Hermina Tyrlová, Jan Svankmajer, nombramos éstos, entre muchos otros grandes creadores.

En los ochenta, la técnica fue usada por Tim Burton, que creció viendo las películas con los efectos especiales de Ray Harryhausen. Burton utilizó dicha técnica en sus cortos para Disney, de los cuales Vincent es el primero y en 2005 Corpse Bride (en español, La Novia Cadáver) Vale destacar que también a principios de los noventa Tim Burton participó como productor de The Nightmare Before Christmas, película basada en sus creaciones artísticas, del director Henry Selick, quien a su vez dirigió Coraline, bajo la misma técnica en 2009.

El stop motion ha sido usado en los trabajos de Aardman Animations, incluyendo Wallace and Gromit, su secuela y Chicken Run. Pascual Pérez, Sam Ortí, Yago Álvarez, son algunos de los animadores que han trabajado en producciones de Aardman Animations.

Videoclips, series y publicidad

Aardman también produjo anuncios publicitarios y vídeos musicales, particularmente el vídeo para Peter Gabriel Sledgehammer, en el que usa una variante del stop motion llamada Pixilación. Esta técnica consiste en tomar imágenes de una persona manteniendo una postura fija para cada fotograma, convirtiéndose en una marioneta humana. Recientemente Aardman ha usado esta técnica en una serie de cortometrajes para la cadena de televisión BBC titulados Angry Kid. Están protagonizados por un actor real que lleva una máscara. La postura del actor y la expresión de la máscara fueron ligeramente alteradas en cada fotograma.

El video musical de la canción “Us” de Regina Spektor está realizado, en ciertos fragmentos, de esta manera.

Otros

Otra variante del stop motion es el go motion, usado en algunas escenas de la película Dragonslayer (El dragón del lago de fuego), que se basa en mover el modelo ligeramente durante cada exposición para producir un efecto más realista con un movimiento desenfocado.

Otro ejemplo de vídeo musical a partir de técnicas de stop motion es el creado por Oren Lavie para su canción Her Morning Elegance.

Con la técnica de stop motion también está animado Domo-kun, la mascota de la cadena de televisión NHK de Japón.

Fantastic Mr. Fox

Este film, el último de Wes Anderson previo a los preparativos para comenzar la filmación de “My Best Friend”, me sorprendió muy gratamente teniendo en cuenta que no esperaba encontrarme con una película de Anderson realizada completamente en stop-motion. Y como era de esperarse, ya que si hay algo que le sobra a este director es sensibilidad, los personajes de Fantastic Mr. Fox, a pesar de no ser de carne y hueso, inevitablemente caen muy bien y traspasan la barrera de los dibujos o los films animados occidentales que muy difícilmente cautivan o conmueven al público adulto. Eso, sumado a la calidez y dulzura que caracteriza a los héroes y anti-héroes con los que sueña Anderson y que luego elige interpretar, como en todos sus anteriores largometrajes, con actores que ante él se entregan a filmar con el ansia lúdica de un niño logrando resultados excepcionales.

Mr. Fox, el personaje principal de esta película, es un simpático y perspicaz zorro que prometió dejar atrás su vida como ladrón de aves para buscar un trabajo tranquilo, al enterarse que iba a ser padre. Fox cuando recibe la noticia decide mudarse con su familia a una nueva casa, pero en ella se ve tentado por sus vecinos granjeros a revivir sus días como animal salvaje. Es así como con la ayuda de Badger, otro personaje muy gracioso y querible, comienza como en los viejos tiempos a robar aves y mercadería de los granjeros vecinos hasta que despierta la ira de los tres hombres que dirigen las granjas y estos deciden atraparlo, cueste lo cueste.

Puede ser que quienes hayan visto los anteriores films de Anderson tengan la sensación de que a Mr. Fox le falta algo, pero yo recomiendo relajar la mente y predisponerse a ver una película liviana (y no por eso poco copada) y que se dispongan a disfrutar más que de la historia en sí, del gran trabajo artístico que hay detrás de cada escena del film.

Tal vez Fantastic Mr. Fox apunte a un público más general que las anteriores películas de Wes, mantiene un ritmo bastante plano pero intencionado, sin grandes sobresaltos dramáticos y sin situaciones hilarantes pero siempre ocurrentes. El film no deja enseñanzas fuertes ni tampoco persigue ese objetivo. Es una película para entretenerse, que se complementa con un buen guión y con un trabajo visual excelente que expresa continuamente la ardua labor de hacer con el stop-motion, una obra de arte estupenda, que aparentemente ha pasado bastante desapercibida en el mercado mundial cinematográfico.

Como dato común a todos los films de Anderson, podemos destacar que usualmente trabaja sobre los mismos temas pero desde ópticas diversas. Círculos familiares quebrantados, amores que duelen hasta lo más profundo, seres dañados que intentan subsanar errores del pasado, o adultos sensibles que buscan la aprobación de una figura paterna. En mi opinión, Wes es realmente grandioso, pero grandioso de una forma que no se llega a alcanzar ser ni con el mejor asesor de imagen, ni con las mil búsquedas de directrices prefabricadas y pretenciosas. Es grandioso porque le gustan las cosas adecuadas, y porque es “aplaudido por la gente adecuada” como diría Tibor Fischer. Es grandioso como lo era Chet Baker, o como lo fue John Coltrane, o, hablando de cine, como lo fue Wells, salvando las distancias. Grandioso casi sin querer, casi sin darse cuenta, porque parece entregarse a filmar siempre en grande. Wes Anderson parece un tipo agradable, detallista, dulce, que conoce mucho de música (más puntualmente, de discos realmente gloriosos) y que logra con sus películas resultados fantásticos, y me refiero a todas ellas: Rushmore, The Royal Tenenbaums, The Life Aquatic, The Darjeeling Limited, y ahora, Fantastic Mr. Fox.

El elenco de actores que ha participado del film para realizar las voces de cada uno de los personajes es fantástico, y es especialmente recomendable ver la película en su versión original para disfrutar de las voces de George Clooney, Meryl Streep, Bill Murray, Owen Wilson, Jason Schwartzman y especialmente de Willem Dafoe en el personaje de “Rata”.

Fuente:  Wikipedia | http://deep-in-velvet.blogspot.com/2010/07/fantastic-mr-fox.html

Animales transgénicos

3505.- El ratón transgénico, que lleva incorporado el gen de la hormona de crecimiento de la rata,
tiene un aumento de tamaño del 80% en comparación con un ratón normal
(Fuente: S.F.Gilbert, 1988, Developmental Biology, 2nd edition, Sinauer Associate, Inc.)

Normalmente, en los organismos superiores animales o vegetales la información genética se transmite por mecanismos de reproducción sexual ; es lo que se conoce como transmisión genética vertical. Sin embargo, hace ya unos veinte años se logró obtener los primeros ratones transgénicos mediante transferencia génica por inyección directa de ADN extraño en un cigoto obtenido por fecundación in vitro ; es decir, se trataba de una transmisión genética horizontal, también llamada transgénesis.

A partir de las experiencias de Gordon, Ruddle y colaboradores iniciadas en 1980 en las que inyectaron ADN de ratón en uno de los pronúcleos de un cigoto de la misma especie, se inició una nueva era en la manipulación genética de embriones de mamíferos. Al año siguiente, Gordon y Ruddle (1981) demostraban la integración y transmisión estable a través de la línea germinal de genes inyectados en pronúcleos de cigotos de ratón obtenidos por fecundación in vitro. Eran los primeros ratones transgénicos. El paso siguiente consistió en probar que también se podían obtener ratones transgénicos que incorporaran en su genoma un gen (transgén) de otra especie. Así, Palmiter y colaboradores (1982) obtuvieron ratones transgénicos gigantes al inyectar en el pronúcleo de un cigoto el gen de la rata que codifica para la hormona del crecimiernto. Incluso, se obtuvieron también ratones transgénicos gigantes cuando el transgén introducido era el gen humano que codifica para la hormona de crecimiento (Palmiter et al., 1983).

Como era de esperar, a los ratones transgénicos siguieron los conejos, ovejas y cerdos transgénicos a los que se les había introducido por microinyección en uno de los pronúcleos del cigoto el ADN del gen humano que codifica para la hormona de crecimiento, en un intento de aumentar el tamaño de tales animales (Hammer et al., 1985). Sin embargo, este avance científico no tuvo aplicación zootécnica porque la presencia del transgén modifica la fisiología del animal transgénico, produciendo efectos colaterales perjudiciales para su desarrollo. De cualquier manera, la era de la trangénesis animal había comenzado como una realidad imparable.

En el cuadro adjunto se indican algunas especies en las que se han obtenido animales transgénicos:

ANIMALES TRANSGÉNICOS

MAMÍFEROS

AVES

PECES

Ratón

Rata

Conejo

Vacuno

Cerdo

Oveja

Cabra

Pollo

Codorniz

Salmón

Trucha

Tilapia

Carpa

Pez gato

Medaka

Dorada

(revisiones por Clark et al., 1987; Chen y Powers, 1990; Bialy, 1991; Sangh, 1994; Velander et al.,1997)

Las técnicas de obtención de animales transgénicos son:

  • Microinyección de ADN en núcleo de ovocito
  • Microinyección de ADN en pronúcleo o en citoplasma de cigoto (óvulo fecundado)
  • Electroporación de cigoto
  • Transfección de células totipotentes
  • Co-inyección en ovocitos de una mezcla de cabezas de espermatozoides y ADN exógeno
  • Vectores virales
  • Transfección de gametos
  • Transferencia de núcleos transfectados (clonación)

PROBLEMAS DE LA TRANSGÉNESIS

La introducción de una nueva información genética (el transgén) dentro del genoma de un organismo puede presentar algunos problemas en relación a dónde y cuándo expresar el transgén, tal como se indica a continuación:

  • Integración múltiple (en tándem o no)
  • Lugar de integración indeterminado (efecto de posición)
  • Metilación y falta de expresión
  • Mosaicismo (germinal y somático)
  • Expresión específica/ectópica
  • Expresión variable
  • Expresión variable dentro de líneas (variegación)

En cualquier caso, el ideal sería poder dirigir con total precisión el lugar de integración del transgén. Así, por ejemplo, en 1999 se obtuvieron en el Roslin Institute de Edinburgo las ovejas transgénicas “Cupid” y “Diana” a partir de la clonación de cultivos celulares modificados mediante recombinación homóloga (“gene targeting”).

OBJETIVOS: APLICACIONES

La Biotecnología incluye “cualquier técnica que utilice organismos vivos o parte de los organismos para fabricar o modificar productos, mejorar plantas o animales o desarrollar microorganismos para usos específicos” (Rodríguez-Villanueva, 1986).
La potencialidad de la biotecnología estriba en producir cantidades ilimitadas de:

  • Substancias de las que nunca se había dispuesto con anterioridad
  • Productos que se obtenían en pequeñas cantidades
  • Abaratamiento de los costes de producción
  • Mayor seguridad en los productos obtenidos
  • Nuevas materias primas, más abundantes y menos caras

Dentro de este contexto general, la Biotecnología ha incorporado la transgénesis animal con los fines que se indican a continuación:

  • Mejora de caracteres productivos
  • Resistencia a enfermedades
  • Modelos animales de enfermedades humanas (por ejemplo, ratones knockout)

Animales transgénicos como biorreactores para la síntesis de proteínas de alto valor (proteínas terapéuticas): Las “granjas farmacéuticas” o “granjas moleculares”
bullet

Donación de órganos: Xenotransplantes

De todos ellos, en lo que sigue se hará referencia únicamente a los dos últimos.

LAS GRANJAS FARMACÉUTICAS

La Biotecnología ha aplicado estas técnicas experimentales de transgénesis y ya hoy se están estableciendo las primeras granjas farmacéuticas en las que se crían ovejas, cabras, vacas o cerdos transgénicos que producen en su leche proteínas terapéuticas humanas (ver Velander et al., 1997).

La manipulación genética de un mamífero doméstico transgénico consiste, en primer lugar, en preparar el fragmento de ADN que contiene el gen humano, uniéndolo a otro fragmento de ADN correspondiente a un elemento regulador (promotor) procedente de un gen que promueve la síntesis de una proteína de la leche (por ejemplo, la b -lactoglobulina, la caseína, etc.). De esta manera se asegura que el gen humano sólo se expresará en las células de las glándulas mamarias del animal transgénico (oveja, cabra, vaca, cerdo) obtenido tras la inyección del ADN manipulado en el pronúcleo masculino de un cigoto producido por fecundación in vitro. Sin embargo, actualmente, la utilización de la técnica de clonación por transferencia de núcleos de células genéticamente modificadas resulta más ventajosa. Con esta última técnica, los investigadores del Roslin Institute de Edinburgo obtuvieron por vez primera en 1997 ovejas transgénicas procedentes de núcleos de fibroblastos fetales a los que se les había introducido el gen humano que codifica para el factor IX de coagulación de la sangre (Schnieke et al., 1997). Los resultados de estos autores demostraron además que la utilización de la técnica de clonación de los núcleos modificados genéticamente es mucho más eficaz que la técnica original de microinyección de ADN en los pronúcleos de los cigotos.

Posteriormente, con estas técnicas se ha conseguido que la leche de las hembras transgénicas contenga también otras proteínas terapéuticas humanas (a -1-antitripsina, proteína C, factor VIII de coagulación, antitrombina III, etc.) que pueden luego ser fácilmente separadas de las restantes proteínas propias del animal. Además es importante señalar que el animal transgénico no se ve perjudicado en su desarrollo porque el gen humano sólo se expresa en las células de las glándulas mamarias debido al regulador específico al que se le ha asociado y, por tanto, en las restantes células del animal no se sintetiza la proteína humana al estar silenciado el gen humano. En consecuencia, el animal doméstico ha sido convertido en un gran biorreactor sin perjuicio aparente para él.

Las primeras granjas farmacéuticas fueron establecidas por compañías biotecnológicas como Pharmaceutical Proteins Ltd (PPL) en Escocia (1500 ovejas), Genzyme Transgenics en Estados Unidos (1000 cabras), Gene Pharming Europe en Holanda (vacas), etc. Otros grupos de investigación son partidarios de la utilización de las granjas de cerdos transgénicos dado su corto tiempo de gestación (cuatro meses), el intervalo generacional (un año) y el mayor tamaño de las camadas (10 a 12 lechones), teniendo en cuenta además que una cerda lactante produce unos 300 litros de leche al año.

Las cifras económicas demuestran la importancia futura de las granjas farmacéuticas : el mercado de proteínas terapéuticas, que actualmente se obtienen principalmente mediante fermentación o cultivo celulares, se estima en unos 7.600 millones de dólares anuales y se calcula que podrá llegar a ser de 18.500 millones de dólares el año 2000 (ver Postel-Vinay y Millet, 1997 para una versión divulgadora de los experimentos de clonación y de animales transgénicos).

Ovejas transgénicas

Los pacientes de enfisema hereditario necesitan ingerir grandes dosis de a -1-antitripsina para suplir su deficiencia en plasma, donde la concentración es de 2 mg/ml. Pues bien, en el Roslin Institute de Edinburgo, en colaboración con la empresa PPL, se han obtenido por diversos procedimientos ovejas transgénicas portadoras del gen humano que codifica para la a -1-antitripsina (unido al promotor de la b -lactoglobulina para que se exprese exclusivamente en las células de la glándula mamaria. Así, el grupo que dirige el Dr. Ian Wilmut microinyectaron 549 cigotos con el ADN del gen humano unido al promotor del gen de la b -lactoglobulina de oveja, obteniendo 113 individuos de los que cinco (un cordero y cuatro ovejas) eran transgénicos. Las ovejas producían más de 1 mg/ml de a -1-antitripsina en la leche e, incluso, una de ellas, que presentaba un mayor número de copias del transgén integradas en el genoma, llegó a producir hasta 63 mg/ml durante la primera semana, pero luego se estabilizó en 35 mg/ml (Wright et al., 1991).

El mismo grupo de investigación ha obtenido también ovejas transgénicas portadoras del gen humano que codifica para el factor IX de coagulación de la sangre (antihemofílico), primero mediante la técnica de microinyección en el pronúcleo del cigoto del correspondiente gen humano (ADNc) unido al promotor del gen de la b -lactoglobulina de la oveja (Clark et al., 1989) y más tarde mediante la técnica de clonación: transferencia de núcleos de fibroblastos fetales genéticamente modificados (Schnieke et al., 1997).

Cabras transgénicas

Las cabras también pueden constituir unos buenos biorreactores de proteínas humanas puesto que producen 4 litros/día de leche y sus períodos de gestación y de desarrollo son cortos (5 y 8 meses, respectivamente). Así, Ebert et al. (1991) obtuvieron cabras transgénicas portadoras del gen humano que codifica para el activador tisular de plasminógeno (AtPH) que, al estar unido al promotor del gen de la b -caseína de la cabra, producía hasta 2-3 mg/ml de AtPH en la leche del animal. La proteína podía ser aislada con una pureza del 98% y una actividad específica de 610.000 U/mg (Denman et al., 1991).

Vacas transgénicas

La gran producción lechera de las vacas (10.000 litros/año, 35 g proteína/litro de leche) las convierte en poderosos biorreactores de proteínas humanas. En 1991, tres grupos de investigación de Holanda (la Universidad de Leiden, la empresa Gene Pharming Europe y el Instituto de Producción Animal de Zeist) obtuvieron vacas transgénicas portadoras del gen humano de la lactoferrina que se sintetizaba en la leche del animal por estar unido al promotor de la a -S1-caseína bovina. Así, Krimpenfort et al. (1991) inyectaron 1.154 pronúcleos de otros tantos cigotos obtenidos por fecundación in vitro, de los cuales sobrevivieron 981. A los 9 días transfirieron 129 embriones a vacas estimuladas hormonalmente (pseudopreñez), quedando 21 de ellas preñadas y sólo 16 llevaron a término la gestación. Se obtuvo un macho y una hembra (que era un mosaico). El macho dio positivo para la presencia del gen humano en todos los tejidos analizados (placenta, oreja y sangre), estimándose que era portador de 5 a 10 copias del gen humano.

Más tarde, otro grupo de investigación (Cibelli et al., 1998) obtuvo tres terneros clónicos transgénicos que llevaban el trasgén híbrido b -gal-neo que se expresaba con un promotor muy potente del citomegalovirus.

En el caso de las vacas, otros objetivos pueden ser la aplicación de la técnica conocida como “modelo de la glándula mamaria” para reducir la lactosa (para los casos de intolerancia) o fabricar “in vivo” leche maternizada, suprimiendo mediante la técnica de “knockout” del gen de la b -lactoglobulina de la leche de vaca para imitar a la leche humana que no la tiene.

XENOTRASPLANTES

Desde que el Doctor Christiaan Barnard hiciera su primer trasplante de corazón, la técnica de trasplante de órganos se ha generalizado en la práctica médica, habiendo alcanzado altísimos niveles de perfección. Sin embargo, uno de los retos pendientes es el de la oferta y la demanda: desgraciadamente muchos pacientes mueren antes de tener acceso al trasplante deseado. Por ello la posibilidad de recurrir a especies animales como donantes de órganos se planteó hace ya muchos años. De hecho, entre los años 1964 y 1995 se han realizado 32 xenotrasplantes de riñón, corazón, hígado y médula ósea procedentes mayoritariamente de chimpancé y mandril con un resultado negativo.

La utilización de órganos procedentes de monos tenía la lógica de su proximidad evolutiva con la especie humana, pero la diferencia de tamaños de los órganos entre las especies suponía un serio inconveniente. Por eso se pensó en el cerdo como posible donante. Por otro lado, una causa importante del fracaso de los xenotrasplantes es el rechazo hiperagudo que se produce cuando el organismo humano reconoce la presencia del órgano de otra especie. De ahí surgió la idea de utilizar cerdos transgénicos como posibles donantes.

Respecto a la utilización de cerdos transgénicos como reservorio de órganos para posibles trasplantes (xenotrasplantes) de corazón, riñón o hígado a pacientes humanos hay que ser todavía muy cauto en relación con las expectativas creadas. El primer paso que se ha dado ha consistido en la obtención de cerdos transgénicos capaces de expresar el antígeno regulatorio del complemento humano, evitando así el rechazo hiperagudo (Dr. David J.G. White, en Cambridge, en 1992). No obstante, quedan por resolver aún numerosos interrogantes, entre ellos la posibilidad de que se transmitan al hombre infecciones virales de origen animal (Le Tissier et al. 1997). De ahí la importancia que tendría la posible utilización de cerdos transgénicos ante la demanda creciente de órganos y las correspondientes listas de espera. Para una revisión de los xenotrasplantes ver Lanza et al. (1997) y Cooper et al. (1997)

ASPECTOS BIOÉTICOS

En un contexto bioético quizá podría ser conveniente hacer una valoración general sobre lo que significa la introducción de genes humanos en organismos no humanos. Habría que distinguir dos situaciones diferentes: la primera, cuando la transferencia del gen humano al organismo no humano se hace en beneficio del propio hombre, y la segunda cuando la transferencia del gen humano al organismo no humano se hace exclusivamente en beneficio (o perjuicio) de este último.

Desde el punto de vista bioético, la situación creada por la obtención de mamíferos transgénicos portadores de genes humanos para la obtención de proteínas terapéuticas humanas no es esencialmente nueva ya que, desde los primeros tiempos de la ingeniería genética molecular, se han introducido genes humanos en células bacterianas para obtener proteínas humanas (insulina, hormona de crecimiento, interferón, etc.). Tanto en el caso de las bacterias como de los animales transgénicos que se convierten en factorías naturales (biorreactores) de proteínas humanas, la valoración ética es positiva. En este último caso es importante señalar además que, al quedar restringida la expresión del gen humano a las células de la glándula mamaria, la fisiología y desarrollo del animal no se ven alterados y por tanto se evita cualquier daño a éste, quedando protegidos así los derechos de los animales.

En el segundo caso planteado, cuando la transferencia del transgén humano se realiza con el único propósito de influir en el desarrollo del animal, la valoración ética puede ser negativa si se producen anomalías importantes en su fisiología, como ocurrió en los cerdos que habían incorporado el gen humano de la hormona del crecimiento. Finalmente, en este contexto ¿podría decirse que algún gen humano concreto – en definitiva, un trozo de ADN – merecería un tratamiento o valoración ética diferente al resto? La respuesta lógica sería negativa, so pena de caer en una sacralización del ADN humano.

¿Cuál es la valoración ética de los xenotrasplantes?

En primer lugar, habría que tener la garantía suficiente de que no hay problemas de transmisión viral. Aún sentada esta premisa, hay que reconocer que a muchas personas les repugna, en principio, la idea de que alguien pueda llevar un órgano animal. Sin embargo habría que recordar que desde hace mucho tiempo se realiza la implantación de válvulas de cerdo a personas con ciertas insuficiencias cardiacas y todo el mundo ha aceptado esta práctica médica. Por otro lado, la existencia de prótesis de material inerte (plástico, metales, etc.) podría ser igualmente rechazado y no lo es. Ciertamente, desde el punto de vista ético parece que no habría razón para rechazar los xenotrasplantes en la medicina del futuro, siempre que se solucionen todos los aspectos técnicos – que son muchos – que aún quedan por resolver.

Fuente: http://www.prodiversitas.bioetica.org/des18.htm

El futuro sustituto del silicio: ¿Grafeno o Molibdenita?

La molibdenita es un mineral del grupo II (sulfuros), según la clasificación de Strunz; es un disulfuro de molibdeno (MoS2). Es de apariencia y de tacto similar al grafito; y también posee propiedades lubricantes que son consecuencia de su estructura de capas. La estructura atómica consiste en láminas de átomos de molibdeno contenidos entre láminas de átomos de azufre. Las uniones Mo-S son fuertes, pero la interacción entre átomos de azufre entre las capas superiores e inferiores de un conjunto de tres láminas es débil, lo que produce un efecto de fácil deslizamiento a la vez que planos de exfoliación.

La molibdenita se produce en depósitos minerales hidrotermales de alta temperatura. Entre los minerales asociados a ella se encuentran la pirita, la calcopirita, el cuarzo, la anhidrita, la fluorita y la scheelita. Entre los depósitos más importantes se cuentan los depósitos de pórfidos de molibdeno diseminados en Questa, Nuevo México, EE.UU., y en las minas Henderson y Climax en Colorado, EE.UU.. La molibdenita también puede presentarse junto a depósitos de pórfido de cobre como ocurre en Arizona y Utah en EE.UU., y en México.

El descubrimiento realizado en el laboratorio suizo del École Polytechnique Fédérale de Lausanne (EPFL) podría desarrollar un papel fundamental en el segmento de la electrónica, ya que facilitaría la fabricación de transistores que son más pequeños y más eficientes energéticamente.

La investigación llevada a cabo en el Laboratorio de Electrónica y Structuras a Nanoescala (LANES) ha revelado que la molibdenita (MoS2), es un semiconductor muy eficiente. Además, el mineral, que es muy abundante en la naturaleza, se usa a menudo como un elemento integrante de las aleaciones de acero o como aditivo en lubricantes, pero aún no se había estudiado su aplicación al mundo de la electrónica.

Según Andra Kis, uno de profesores del EPFL encargados del estudio, la molibdenita “es un material de dos dimensiones, muy delgado y fácil de usar en nanotecnología. Tiene potencial real en la fabricación de transitores muy pequeños, en la de LEDs y en células solares“.

El Grafeno viene siendo la estrella de los nuevos materiales, con sus increíbles capacidades de conducción eléctrica y térmica que permitirían fabricar computadoras mucho más rápidas y eficientes. Sin embargo, la Molibdenita (MoS2), es un material que puede encontrarse facilmente en la naturaleza y presenta características que lo hacen mucho mejor que el Grafeno para fabricar transistores. La Molibdenita se conoce desde hace muchísimo tiempo, pero recién ahora se empezó a evaluar su potencial como material para aplicaciones electrónicas.

Año tras año, los fabricantes de chips, como Intel, AMD, ATI, NVIDIA, QUACOMM y muchos más, reducen sus tamaños de fabricación. Es usual escuchar que tal o cual línea de procesadores están fabricados con un “proceso de 45 nm” o, los más nuevos, en 22 nanómetros. ¿Qué significa esto? Los transistores que componen los chips se graban mediante técnicas litográficas sobre la superficie del buffer de Silicio, esto les permite hacer transistores muy pequeños, cuyo tamaño es del orden de varias decenas de nanómetros. Cada reducción en el tamaño de los transistores implica muchísima investigación y desarrollo por parte de las empresas, y cuánto más reducen el tamaño, más díficil es hacer el siguiente salto. Actualmente estamos experimentando el salto de 45 a 22 nanómetros, pero el próximo va a llevar varios años y muchos dólares involucrados. Aquí es dónde los nuevos nanomateriales salen a jugar un papel fundamental.

Aplicaciones de los nanomateriales

Desde su descubrimiento en 2004, hasta el premio Nobel que ganaron sus “padres” en 2010, el Grafeno se venía perfilando como el sucesor del Silicio a la hora de fabricar componentes electrónicos. Sin embargo, su uso presenta ciertas complicaciones. Si bien es un material superconductor a temperatura ambiente y tiene una geometría laminar de tan sólo un átomo de espesor (razón por la cual prácticamente no genera pérdidas de energía al hacerle pasar una corriente eléctrica), no dispone de una característica fundamental, el band-gap. El Band-gap (o Banda Prohibida) es el pilar de la electrónica, de ella depende el funcionamiento de diodos y transistores. El band-gap permite que un material se comporte como conductor o como aislante, sirviendo como llaves on-off.

Molibdenita, la nueva estrella de Silicon Valley

La Molibdenita es un mineral muy abundante en la naturaleza, de estructura laminar, compuesta por una capa de átomos de Molibdeno, entre dos capas de átomos de Azufre. Esta configuración tipo sandwich le confiere propiedades especiales. Actualmente, es ampliamente utilizada como aditivo EP (Extrema Presión) para lubricantes, pero también tendría aplicaciones dentro de la rama electrónica.

La presencia de capas alternadas de Azufre y Molibdeno generan en el material una banda prohibida de 1,8 eV que sirve como control del flujo de electrones. Con este material podrían construirse procesadores mucho más pequeños y que consuman unas 100.000 veces menos energía que uno de Silicio en estado de reposo.

Y aquí no se terminan sus beneficios, la Molibdenita, además de ser abundante en la naturaleza, es muy fácil de separarse en capas, mediante un proceso de exfoliación. La atracción entre capas de Azufre es muy baja, con lo que el material se puede hacer deslizar para ir obteniendo sandwiches de capas Azufre – Molibdeno – Azufre.

La Molibdenita podrá usarse junto al Grafeno para producir procesadores muchísimo más potentes y con menor consumo de energía, así como también, celdas fotoeléctricas más eficientes y en aplicaciones optoeléctricas que requieran de materiales semi-conductores transparentes.

Fuente: http://www.webayunate.com/molibdenita-el-material-que-le-hace-pelea-al-grafeno/

Grafeno, el material del futuro

El grafeno es un miembro de una familia más amplia de estructuras en las que los átomos de carbono se unen en láminas planas, formando un panal de abejas hexagonal (con un átomo en cada vértice). Situados muchos panales uno sobre otro, se tiene grafito. Si se enrolla una porción de una de esas láminas en forma de esfera, como un balón de futbol, se producen fullerenos, unas moléculas de tan gran interés que a sus descubridores se les concedió el Nobel de Química del año 1996, tal como comentamos oportunamente en este periódico (véase http://servicios.laverdad.es/cienciaysalud/6_3_35.html). Si el panal se enrolla formando un cilindro se tiene un nanotubo de carbono. Y, un grafeno sería un único de esos panales extendido, una estructura casi plana, bidimensional, ya que su espesor es el de sólo un átomo.

Fue en el año 2004 cuando el grupo de Manchester y otro ruso, el del Dr. Kostya Novoselov, del Instituto para la Tecnología de la Microelectrónica en Chernogolovka, Rusia, publicaron en la revista Science los primeros hallazgos sobre este material. En el año 2005, junto con otros investigadores holandeses e, independientemente, Philip Kim y sus colaboradores de Columbia University, exploraron algunas de las propiedades electrónicas del grafeno y lo más actual es un artículo, enviado a publicar a la revista Physical Review Letters, así como una excelente y recentísima revisión en la revista Nature Material, sobre la consecución práctica de fabricación de las membranas de grafeno de un átomo de espesor, con aplicaciones prácticas muy diversas.

El grafeno conduce la electricidad mejor que muchos materiales metálicos, porque los electrones pueden viajar en línea recta entre los átomos sin dispersarse. Esto podría significar que unos componentes electrónicos basados en este material serían más eficientes y consumirían menos electricidad. Un hipotético chip confeccionado con este tipo de transistores sería más rápido y permitiría crear computadoras más veloces.

El primer transistor de grafeno fue presentado en 2004, pero no funcionaba muy bien al tener pérdidas de corriente y no poder pasar a un estado bajo convenientemente. Esto se debía precisamente a que los electrones se movían demasiado bien entre los átomos.

El transistor monoatómico estaba confeccionado enteramente en una lámina de grafeno. Los elementos centrales son puntos cuánticos que permiten a los electrones fluir de uno a uno. Los puntos cuánticos están conectados a una región más ancha que funciona como la barrera de los transistores de efecto túnel. Foto: University of Manchester.

A lo largo de los años, los transistores de silicio han ido reduciendo su tamaño hasta los 45 nanómetros (nm), tecnología de fabricación en la que se basa actualmente Intel y AMD, ésta última para los chipsets gráficos. Esto ha permitido que la Ley de Moore se haya cumplido hasta el momento y que, cada 2 años, el número de transistores en un circuito integrado se haya podido duplicar. De hecho, si se consulta el roadmap de Intel, ya existen previsiones para los 32 nanómetros a corto plazo, e incluso para los 10 nanómetros. Sin embargo, la utilización de transistores de silicio tiene el límite máximo en esta cantidad, 10 (nm), tamaño a partir del cual el material deja de comportarse de forma estable.

Los nuevos transistores de grafeno trabajarán a temperatura ambiente, condición imprescindible para poder formar parte de los dispositivos electrónicos modernos. Ahora es necesario descubrir un método práctico de fabricación, antes de que el desarrollo pueda utilizarse para aplicaciones comerciales. Ahora bien, la tecnología podrá aplicarse a transistores ultra rápidos, dispositivos micromecánicos y sensores de tamaño microscópico. Actualmente el proceso de fabricación de transistores incluye cierto elemento de suerte, lo que provoca que la mitad de los intentos realizados terminen en procesos defectuosos. No obstante, Novoselov destaca que pronto serán capaces de descubrir una metodología mucho más eficaz. Según lo indicado, parece que los chipsets fabricados a partir de grafeno será de vital importancia durante los próximos años para la industria tecnológica.

PROPIEDADES

Para el profesor Eaves, experto en semiconductores de la Universidad de Nottingham el del grafeno es el más excitante descubrimiento llevado a cabo en la última década en la física del estado sólido. Y para el Dr Novoselov, colaborador del Dr. Geim, lo más importante es que las consecuencias no se limitarán a la aparición de unos pocos materiales, sino a un nuevo conjunto de miles de ellos diferentes, con amplias gamas de aplicaciones particulares. De hecho, hace cuatro años se realizaron un par de tesis doctorales sobre el grafeno. Actualmente, varios centenares están en marcha. ¿Cuáles son sus sugerentes propiedades? Bastantes. He aquí algunas:

Los electrones interaccionan con el panal del grafeno y se pueden mover por las celdas hexagonales, a una velocidad solo cuatrocientas veces inferior a la velocidad de la luz, muy superior usual de los electrones en un conductor ordinario, lo que es suficiente para que exhiban comportamientos relativistas. Además, los electrones mantienen esta velocidad incluso a muy bajas temperaturas comportándose como si no tuviesen masa en reposo. Por ello, para poder estudiar la física de estos electrones es necesario utilizar la ecuación de Dirac para fermiones sin masa.

El paso de los electrones (electricidad) por el grafeno origina un efecto Hall cuántico que es imprescindible para su comportamiento como semiconductor. Pero mientras que otros semiconductores sólo presentan este efecto a temperaturas muy bajas, el grafeno lo mantiene bien incluso a temperatura ambiente, lo que le convierte en un excelente semiconductor y su conductividad eléctrica no decae por debajo de un valor mínimo, incluso cuando no hay electrones libres en el grafeno. Este resultado es completamente contraintuitivo pues en cualquier otro material la conductividad eléctrica desaparece cuando no hay cargas.

El grafeno, actuando como semiconductor estable y bidimensional permite que los electrones se muevan libremente por el camino que más convenga, no ceñidos a un camino recto como en los transistores convencionales basados en las capacidades semiconductoras del silicio, que es empleado para crear pequeñísimos tubos por donde fluye la corriente eléctrica. Además, al contrario que en otros sistemas bidimensionales que tengan pequeñas impurezas, en el grafeno los electrones no se pueden quedar aislados en zonas donde no puedan salir.

En resumen, el grafeno es un semiconductor que puede operar a escala nanométrica y a temperatura ambiente, con propiedades que ningun otro semiconductor ofrece y todo apunta a que se podrán crear nuevos miniaturizados dispositivos electrónicos insospechados con este material, pudiéndonos acercar rápidamente a la prometedora computación cuántica, por lo que, previsiblemente toda la humanidad se verá favorablemente afectada. Aunque la realidad de sus aplicaciones no se evidenciará hasta que aparezcan los primeros productos comerciales, su importancia es ya enorme en la física fundamental porque gracias al nuevo material los fenómenos relativísticos cuánticos, algunos de ellos no observables en la física de alta energía, pueden ahora reproducirse y probarse en experimentos de laboratorio relativamente sencillos. Así ha sucedido con algunos aspectos de la teoría de la Relatividad de Einstein.

FABRICACIÓN

Cuando escribimos con un lápiz la fricción con el papel arranca haces de láminas, débilmente unidas entre sí, y las deposita en forma de escritura sobre la superficie del papel. Posiblemente, estamos produciendo también multitud de capas invisibles de grafeno. En los laboratorios, se obtuvo con sorprendente facilidad, frotando una porción microscópica de grafito sobre un chip de silicio, con lo cual quedaban depositadas alrededor de un centenar de láminas superpuestas. El silicio se puede disolver en ácido o bien se puede usar una cinta adhesiva para separar las láminas. En este último caso se pliega la cinta adhesiva para que quede pegada a las dos caras de la lasca de grafito y se abre de nuevo, con lo que se consigue la separación de láminas. Repitiendo la operación varias veces las láminas obtenidas son de menor espesor, hasta conseguir la monocapa de grafeno de un átomo de espesor. Hace unos meses los becarios de la Universidad de Columbia participantes en los proyectos sobre grafeno recibían por la labor anterior 10$ la hora. Como es lógico, ya existen varios proyectos industriales en desarrollo para la fabricación industrial de grafeno, siendo el más avanzado el del Georgia Institute of Technology usando láminas de carburo de silicio calentadas a 1300 °C, de modo que los átomos de silicio se van evaporando de la superficie mientras que los átomos de carbono que no se evaporan se van restructurando en forma de láminas de grafeno.

Fuente: http://servicios.laverdad.es/ababol/pg070519/suscr/nec9.htm

Molibdenita el material que compite con el grafeno

Mp3 Surround, Musica viva digital

Mp3 Surround sonido digital envolvente

¿De qué sirven cinco altavoces y un subwoofer si sólo tenemos a mano música en estéreo? Hasta ahora, las únicas fuentes de sonido multicanal eran prácticamente las bandas sonoras de las películas en DVD. En adelante, el nuevo formato MP3 Surround permitirá disponer de música digital envolvente.

El proceso generalizado de digitalización de la música, los nuevos dispositivos de almacenamiento y los nuevos canales de distribución han hecho de los ficheros MP3 el estándar de difusión musical. Sin embargo, el formato MP3 sólo contempla el sonido en estereofonía, es decir, con dos canales. En cambio, cada vez son más los equipos reproductores de tipo ‘cine en casa’, preparados para reproducir sonido envolvente mediante seis altavoces (tres delanteros, dos traseros y un subwoofer). Pero las únicas fuentes sonoras que utilizan plenamente esta posibilidad son las bandas sonoras de cine, y los escasos discos Super Audio CD multicanal.

Para cubrir esta discrepancia, ha nacido el nuevo formato MP3 Surround, que añade al MP3 convencional la información adicional necesaria para reconstruir los 5+1 canales del sonido envolvente. Creado por el Fraunhofer Institute alemán en colaboración con las firmas Thomson y Agere Systems, el MP3 Surround permite obtener, a partir de fuentes sonoras multicanal, ficheros que se escuchan en estereofonía convencional en los equipos normales, y en modalidad envolvente en los preparados para ello. El procedimiento de codificación binaural BCC utilizado (les ahorraremos los detalles técnicos, pero de la web de Fraunhofer se puede descargar un documento que los explica) permite que la información suplementaria necesaria para reconstruir los seis canales sea mínima, de modo que los ficheros resultantes no ocupen mucho más que sus equivalentes estereofónicos.

Esta retrocompatibilidad también hará posible utilizar los mismos canales de difusión y comercialización que con los ficheros MP3 convencionales.

Hasta que se generalice el uso de esta tecnología por parte de los músicos y la industria musical, los interesados pueden probarla por sí mismos. En la web del Fraunhofer Institute indicada más arriba se pueden descargar, en versiones para Windows y para Mac OS X, el conjunto de programas necesarios para evaluarla: un codificador, un decodificador/reproductor y un kit de desarrollo. La versión de Windows también incluye un módulo para escuchar ficheros MP3 Surround con el programa reproductor Winamp. Los codificadores caducarán a final de año.

En la misma web se ofrece también música de muestra: varias canciones ya codificadas en MP3 Surround, e incluso una en formato multicanal 5.1 para probar la función de codificación.

Autor: Albert Cuesta

Fuente:http://www.box.net//static/flash/box_explorer.swf?widget_hash=iz13ocphi8ytj5a81jt0&v=0&cl=0&s=0
 
 
Link para descarga del reproductor de Fraunhofer de mp3 surround
 
http://fraunhofer-mp3-surround.programas-gratis.net/
 
Winamp Plugin
 
http://www.winamp.com/plugin/mp3hd-input-plug-in-v1-5-0/221984
 
La consola de juegos PS3 támbien reproduce mp3 surround:
 
Types of files that can be played
 
The following types of files can be played under (Music) PS3.* Memory Stick Audio Format(ATRAC)
* MP3
* – MPEG-1/2 Audio Layer3
* – MP3 Surround
* MP4(MPEG-4 AAC)
* WAVE(Linear PCM)
* WMA
 
Nota: Para poder apreciar los efectos de sonido del mp3 surround se debe escuchar con el reproductor de fraunhofer, winamp o en la consola de juegos Sony Play Station 3.
 
Muestras de canciones en mp3 surround:  http://www.box.net/shared/7fjnvbhqy6pl3ubkskiz
 
 

La física de civilizaciones extraterrestres

En sus últimos años, Carl Sagan hizo en una ocasión esta pregunta, “¿Qué significa para una civilización tener una antigüedad de un millón de años?. Nosotros hemos tenido radiotelescopios y naves espaciales durante solo unas pocas décadas; nuestra civilización técnica tiene solo unos pocos cientos de años… una civilización avanzada de millones de años de antigüedad está mucho más lejos de nosotros de lo que nosotros estamos de un pequeño arbusto o un macaco”.

Aunque cualquier conjetura sobre tales civilizaciones avanzadas es solo una especulación vacía, uno puede usar las leyes de la física para establecer unos límites superiores e inferiores de estas civilizaciones. En particular, ahora que las leyes en el campo de la teoría cuántica, relatividad general, termodinámica, etc., están bastante bien establecidas, la física puede imponer unos amplios límites físicos los cuales restringen los parámetros de estas civilizaciones.

Esta pregunta no va más allá de una frívola especulación. Dentro de poco, la humanidad puede sufrir un shock existencial cuando la actual lista de una docena de planetas extrasolares del tamaño de Júpiter crezca a cientos de planetas del tamaño de la Tierra, gemelos casi idénticos de nuestro hogar celeste. Esto nos puede llevar a una nueva era en nuestra relación con el Universo: nunca más veremos el cielo nocturno de la misma forma otra vez, dándonos cuenta que los científicos podrían finalmente recopilar una enciclopedia identificando las coordenadas precisas de quizá cientos de planetas similares a la Tierra.

Hoy día, cada pocas semanas traemos noticias de que se ha descubierto un nuevo planeta extrasolar del tamaño de Júpiter, el último encontrado está a unos 15 años luz de distancia orbitando la estrella Gliese 876. El más espectacular de estos descubrimientos fue fotografiado por el Telescopio Espacial Hubble, el cual tomó unas sobrecogedoras imágenes de una planeta a 450 años luz de distancia siendo disparado al espacio por un sistema estelar doble.

Pero lo mejor está por llegar. A principios de la próxima década, los científicos enviarán una nueva clase de telescopio, el telescopio espacial de interferometría, el cual usa la interferencia de los rayos de luz para amplificar el poder de resolución de los telescopios.

Por ejemplo, la Misión de Interferometría Espacial ( Space Interferometry Mission o SIM ), que será lanzada a principios de la próxima década, consta de múltiples telescopios situados a lo largo de una estructura de 10 metros. Con una resolución sin precedentes aproximándose al límite físico de la óptica, el SIM es tan sensible que casi desafía la imaginación: orbitando la Tierra, ¡puede detectar el movimiento de una linterna agitada por un astronauta en Marte!

El SIM, además, allanará el camino para el Buscador de Planetas Terrestres (Terrestrial Planet Finder), que será lanzado a finales de la próxima década, y que debería identificar aún más planetas similares a la Tierra. Este podrá analizar las 1 000 estrellas más brillantes en un radio de 50 años luz desde la Tierra y se centrará en los 50 a 100 sistemas planetarios más brillantes.

Todo esto, además, estimulará un esfuerzo activo en determinar si alguno de ellos puede albergar vida, tal vez algunos con civilizaciones más avanzadas que la nuestra.

Aunque es imposible predecir las características exactas de tales civilizaciones avanzadas, podemos analizar sus límites usando las leyes de la física. No importa cuantos millones de años nos separen de ellos, ellos deben obedecer también las leyes de hierro de la física, las cuales están ya lo bastante avanzadas como para explicar todo, desde las partículas subatómicas hasta la estructura a enorme escala del Universo, a través de 43 órdenes de magnitud escalonados.

La Física de las civilizaciones de Tipo I, II, y III

La Escala de Kardashov es un método propuesto en 1964 por el astrofísico ruso Nikolái Kardashov para medir el grado de evolución tecnológica de una civilización. Tiene las siguientes tres categorías, basadas en la cantidad de energía utilizable que una civilización tiene a su disposición, que se incrementan de manera exponencial. La escala tiene tres categorías llamadas Tipo I, II y III. Estos se basan en la cantidad de energía utilizable que una civilización tiene a su disposición, y el grado de colonización del espacio. En términos generales, una civilización de Tipo I ha logrado el dominio de los recursos de su planeta de origen, Tipo II de su sistema solar, y Tipo III de su galaxia.

La civilización humana se encuentra actualmente (año 2011) alrededor de 0,72, con los cálculos que sugieren que podemos alcanzar el estado de Tipo I en unos 100-200 años, de Tipo II en unos cuantos miles de años, y de Tipo III entre unos 100.000 a un millón de años.
En concreto, podemos clasificar las civilizaciones por su consumo de energía, usando los siguientes principios:

1) Las leyes de la termodinámica. Incluso una civilización avanzada está limitada por las leyes de la termodinámica, especialmente por la Segunda Ley, y puede por lo tanto ser clasificada por la energía de que dispone.

2) Las leyes de la materia estable. La materia bariónica (por ejemplo basada en protones y neutrones) tiende a reunirse en tres grandes agrupaciones: planetas, estrellas y galaxias. (Esto está bien definido por producto de la evolución galáctica y estelar, fusión termonuclear, etc.) De esta forma, su energía estará basada también en tres tipos distintos, y esto marca el límite superior de su tasa de consumo de energía.

3) Las leyes de la evolución planetaria. Cualquier civilización avanzada debe incrementar su consumo de energía más rápidamente que la frecuencia de catástrofes que amenacen la vida (por ejemplo impactos de meteoritos, glaciaciones, supernovas, etc.). Si crecen más lentamente, están condenados a la extinción. Esto marca el límite inferior para la tasa de crecimiento de estas civilizaciones.

En un artículo original publicado en 1964 en el Journal of Soviet Astronomy, el astrofísico ruso Nicolai Kardashev teorizó que las civilizaciones avanzadas deben estar agrupadas de acuerdo a tres tipos: Tipo I, II, y III, las cuales han llegado a dominar las formas de energía planetaria, estelar y galáctica, respectivamente. Kardashev calculó que el consumo de energía de estos tres tipos de civilización estarían separados por un factor de muchos miles de millones. ¿Pero qué tiempo llevará alcanzar la situación de Tipo II y III?.

Antes de lo que pensamos

El astrónomo de Berkeley Don Goldsmith nos recuerda que la Tierra recibe alrededor de una mil millonésima de la energía del Sol, y que los humanos utilizan solo una millonésima de esta. De modo que consumimos alrededor de una mil billonésima parte de la energía total del Sol. En la actualidad, la producción energética total de nuestro planeta es aproximadamente de 10 trillones de ergios por segundo. Pero nuestro crecimiento energético aumenta de forma exponencial, y por lo tanto podemos calcular cuánto nos llevaría alcanzar la situación de Tipo II o III.

Goldsmith dice, “Mira lo lejos que hemos llegado en el uso de la energía una vez que hemos comprendido cómo manipularla, cómo obtener combustibles fósiles, y cómo crear energía eléctrica a partir de la fuerza del agua, y así sucesivamente; hemos aumentado nuestro uso de energía en una cantidad extraordinaria en solo un par de siglos comparado con los miles de millones de años de existencia de nuestro planeta… y de la misma forma podría esto aplicarse a otras civilizaciones”.

El físico Freeman Dyson del Instituto para Estudios Avanzados estima que, en un plazo no mayor de 200 años*, deberíamos alcanzar la situación de Tipo I. De hecho, creciendo a una modesta tasa de un 1% por año, Kardashev estimó que solo nos llevaría 3 200 años alcanzar la situación de Tipo II, y 5 800 años la situación de Tipo III.

Vivir en una civilización de Tipo I, II, o III

Por ejemplo, una civilización de Tipo I es plenmente planetaria, ha dominado la mayoría de formas de energía de su planeta. Su producción de energía puede estar en orden de miles de millones de veces la producción actual de nuestro planeta. Mark Twain dijo una vez, ”Todo el mundo se queja del clima, pero nadie hace nada para cambiarlo“. Esto podría cambiar con una civilización de Tipo I, la cual tenga suficiente energía para modificar el clima. También tendrían suficiente energía para alterar el rumbo de terremotos, volcanes, y construir ciudades en los océanos.

Actualmente, nuestra producción de energía nos califica para el estado de Tipo 0. Derivamos nuestra energía no del aprovechamiento de fuerzas globales sino de la combustión de plantas muertas (por ejemplo petróleo y carbón). Pero ya podemos ver las semillas de una civilización de Tipo I. Vemos el comienzo de un lenguaje planetario (Inglés), un sistema de comunicación planetario (Internet), una economía planetaria (la forja de la Unión Europea), e incluso los comienzos de una cultura planetaria (medios de comunicación, TV, música rock, y películas de Hollywood).

Por definición, una civilización avanzada debe crecer más rápido que la frecuencia de catástrofes que amenacen la vida. El impacto de un gran meteorito o cometa tiene lugar una vez cada pocos miles de años, una civilización de Tipo I debe dominar el viaje espacial para desviar los escombros en un marco de tiempo que no suponga un problema. Las glaciaciones tienen lugar en una escala temporal de decenas de miles de años, por lo que una civilización de Tipo I debe aprender a modificar el clima dentro de este marco temporal.

Las catástrofes artificiales e internas deben ser también tenidas en cuenta. Pero el problema de la contaminación global es solo una amenaza mortal para una civilización de Tipo 0; una civilización de Tipo I que ha vivido durante varios milenios como civilización planetaria, necesariamente lleva a cabo un balance planetario a nivel ecológico. Los problemas internos suponen una amenaza seria recurrente, pero tienen miles de años en los que resolver conflictos raciales, nacionales y sectarios.

Finalmente, tras varios miles de años, una civilización de Tipo I agotará la energía de un planeta, y derivará su energía del consumo de la completa producción de energía de sus soles, o aproximadamente mil billones de trillones de ergios por segundo.

Con su producción de energía similar a la de una pequeña estrella, deberían ser visibles desde el espacio. Dyson ha propuesto que una civilización de Tipo II podría incluso construir una gigantesca esfera alrededor de su estrella para usar de forma más eficiente la producción de energía total. Incluso si tratasen de ocultar su existencia deben, por la Segunda Ley de la Termodinámica, emitir residuos de calor. Desde el espacio exterior, su planeta brillaría como el adorno de un árbol de Navidad. Dyson incluso ha propuesto buscar específicamente emisiones de infrarrojo (más que las de radio y TV) para identificar estas civilizaciones de Tipo II.

Quizá la única amenaza seria para una civilización de Tipo II sería la explosión cercana de una supernova, cuya súbita erupción podría chamuscar su planeta con un fulminante chorro de Rayos-X, matando todas las formas de vida. De esta forma, quizás la civilización más interesante es la de Tipo III, por ser verdaderamente inmortal. Han agotado la energía de una estrella individual, y han alcanzado otros sistemas estelares. Ninguna catástrofe natural conocida por la ciencia es capaz de destruir una civilización de Tipo III.

Enfrentados a una supernova vecina, tendrían distintas alternativas, tales como alterar la evolución de la gigante roja moribunda que está cerca de explotar, o abandonar ese sistema estelar y terraformar un sistema planetario cercano.

Sin embargo, hay límites para una civilización emergente de Tipo III. Finalmente, se chocaría con otra de las leyes de hierro de la física, la teoría de la relatividad. Dyson estima que esto podría retrasar la transición a una civilización de Tipo III quizá millones de años.

Pero incluso con la barrera de la luz, hay un número de caminos para expandirse a velocidades cercanas a la luz. Por ejemplo, la última medida de la capacidad de los cohetes se toma mediante algo llamado “impulso específico” (definido como el producto del empuje y la duración, medidos en unidades de segundos). Los cohetes químicos pueden alcanzar impulsos específicos de varios cientos a miles de segundos. Los motores iónicos pueden obtener impulsos específicos de decenas de miles de segundos. Pero para obtener velocidades cercanas a las de la luz, se debe alcanzar un impulso específico de aproximadamente 30 millones de segundos, lo cual está muy alejado de nuestra capacidad actual, pero no para una civilización de Tipo III. Una variedad de sistemas de propulsión podría estar disponible para sondas de velocidad sub-luz (tales como motores de fusión ram-jet, motores fotónicos, etc.)

Fuente: http://extraplanetario.obolog.com/fisica-civilizaciones-extraterrestres-261718

Daito Manabe, artista multimedia

Daito Manabe es un polifacético artista, compositor, diseñador, programador, DJ y VJ japonés que crea espectáculos en los que las interacciones entre movimientos, luces, imágenes y sonidos son las protagonistas. Se ha convertido en un artista multimedia muy popular en Internet gracias a su canal de YouTube en el que comparte los trabajos que va desarrollando.

Utiliza sensores que captan diferentes magnitudes físicas (intensidad lumínica, presión, inclinación, aceleración, desplazamiento) y las convierten en señales eléctricas que posteriormente Daito modifica para crear expresiones artísticas. De esta forma, por ejemplo, es capaz de transformar en imágenes las variaciones de presión sobre una superficie o sincronizar los movimientos corporales con variaciones de luz y sonido.

Su trabajo es muy innovador debido a que la mayor parte de sus creaciones son experimentales. En la mayoría de los casos los primeros resultados que obtiene son bastante extraños y hasta podríamos decir que no sirven para nada, pero Daito tiene la habilidad de hacer evolucionar esas ideas y convertirlas en espectáculos tan poco convencionales que captan de forma inmediata e hipnótica la atención de cualquier persona.

Fuente: http://www.tucamon.es/contenido/arte-multimedia-daito-manabe

Web del autor: http://www.daito.ws/#4

Recogedor de Basura Espacial



¿Recuerdas Quark, la escoba espacial? Era una serie de cutre-ficción que relataba los avatares de una Patrulla de Recogida de Basura en el año 2222 cuya misión era “limpiar le basura de la Vía Láctea”. El proyecto de basurero espacial que fue propuesto durante la conferencia anual del Ascensor Espacial no es tan ambicioso: únicamente abarca la órbita terrestre, donde se calcula que hay 600.000 objetos descritos como basura espacial.

El llamado Eliminador Electrodinámico de Escombros (EDDE) es un vehículo equipado con unas 200 redes que iría “cazando” los restos de basura espacial como si se tratara de mariposas, según la elegante descripción de su propulsor, el fundador de Star Inc., Jerome Person. En un período de 7 años, 12 vehículos EDDE podrían capturar 2.465 objetos de más de 2 kilos flotando en órbita baja.

La propuesta de la empresa tiene su razón de ser. La basura espacial es uno de los mayores obstáculos para la puesta en funcionamiento del ascensor espacial, una idea inspirada en un relato de Arthur C. Clarke de 1979, “Las fuentes del paraíso”. Star Inc. proyecta la construcción de un ascensor espacial como alternativa a los transbordadores: una larga cuerda fabricada con nanomateriales que estará anclada a la superficie de la Tierra y contará con un contrapeso a 35.000 kilómetros de altura. Las naves subirán y bajarán por el cable, acarreando gente y objetos al espacio.

Pero el sueño de un ascensor espacial se vio truncado cuando en la conferencia celebrada hace dos años un antiguo científico de la NASA avisó que los objetos de basura impactarían sobre el vehículo, haciéndole inoperativo. Desde entonces, la empresa ha estado trabajando en una solución para esta basura espacial, que viene en forma de cazamariposas gigante.

Los objetos capturados por los vehículos EDDE podrían tener varios destinos: o bien serían lanzados al Pacífico Sur, donde no deberían impactar con ningún objeto terrestre importante, o bien podrían trasladarse a una órbita terrestre, para que fueran cayendo hacia la Tierra, o bien podrían reutilizarse para construir estructuras para albergar tripulaciones o equipamiento. En este caso “estaríamos recolectando aluminio en órbita”, según Pearson. Cabe recordar que el pico de producción del aluminio se producirá en 2057, según la investigadora Alicia Valero.

No todo el mundo parece feliz con el despliegue de los EDDEs. China ya ha advertido que vehículos como el propuesto también podrían servir para “propósitos siniestros”, como la retirada de satélites de su órbita por motivos militares. Ante la acusación, Pearson alega que están trabajando con la NASA y no con Darpa, que forma parte del Departamento de Defensa de EEUU.

Posibilidades de construcción: 30%. Los vehículos de recogida de basura también son basura in pectore. En cualquier caso conmueve comprobar la influencia mutua entre la ciencia-ficción y la ciencia: el basurero espacial se hace realidad medio siglo después.

Fuente: http://blogs.lainformacion.com/futuretech/2010/08/30/el-camion-de-basura-espacial-podria-empezar-la-recogida-de-residuos-en-2017/

El shock del futuro; A. Toffler

Este libro trata de lo que le pasa a la gente que se siente abrumada por el cambio. Trata del modo en que nos adaptamos —o dejamos de adaptarnos— al futuro. Mucho se ha escrito sobre el futuro. Sin embargo, la mayoría de los libros sobre el mundo venidero tienen un áspero sonido metálico. Estas páginas, por el contrario, se ocupan de la cara «suave» o humana del mañana. Más aún: se ocupan de los pasos que hemos de dar para poder alcanzar el mañana.

Tratan de materias corrientes y cotidianas: los productos que compramos y los que rechazamos, los sitios que dejamos atrás, las corporaciones en que vivimos, las personas que pasan, cada vez más de prisa, por nuestras vidas. Sondean el futuro de la amistad
y de la vida de familia. Investigan extrañas y nuevas subculturas y estilos de vida, junto con una serie de temas diversos, desde la política y los campos de deportes hasta los vuelos espaciales y el sexo.
Lo que les sirve de lazo de unión —en el Libro, como en la vida— es la estrepitosa corriente del cambio, una corriente hoy tan poderosa que derriba instituciones, trastorna nuestros valores y arranca nuestras raíces. El cambio es el fenómeno por
medio del cual el futuro invade nuestras vidas, y conviene observarlo atentamente, no sólo con las amplias perspectivas de la Historia, sino desde el ventajoso punto de vista de los individuos que viven, respiran y lo experimentan.

La aceleración del cambio en nuestro tiempo es, en sí misma, una fuerza elemental. Este impulso acelerador acarrea  consecuencias personales y psicológicas, y también sociológicas. En las páginas que siguen se exploran sistemáticamente, por primera vez, estos efectos de aceleración. El libro sostiene, espero que con diafanidad, que, a menos que el hombre aprenda rápidamente a dominar el ritmo del cambio en sus asuntos personales, y también en la sociedad en general, nos veremos  condenados a un fracaso masivo de adaptación.

En 1965, en un artículo publicado en Horizon, inventé el término «shock del futuro» para designar las desastrosas tensión y  desorientación que provocamos en los individuos al obligarles a un cambio excesivo en un lapso de tiempo demasiado breve.

Fascinado por este concepto, empleé los cinco años siguientes en visitar numerosas universidades, centros de investigación, laboratorios y oficinas del Gobierno; en leer innumerables artículos y documentos científicos; en interrogar a centenares de  técnicos sobre diferentes aspectos del cambio, sobre las formas de comportamiento y sobre el futuro. Premios Nobel, hippies,  psiquiatras, físicos, hombres de negocios, futurólogos, filósofos y profesores me expresaron su preocupación por el cambio, su ansiedad por la adaptación, su miedo del futuro.

Salí de esta experiencia con dos convicciones turbadoras.

Primera: vi claramente que el «shock» del futuro ya no es un posible peligro remoto, sino una verdadera enfermedad que afecta a un número creciente de personas. Este estado psicobiológico puede describirse en términos médicos y psiquiátricos. Es la enfermedad del cambio.

Segundo: me espantó, gradualmente, lo poco que saben hoy en día de adaptabilidad tanto los que exigen y producen grandes  cambios en nuestra sociedad, como aquellos que pretenden prepararnos para hacer frente a tales cambios. Graves intelectuales hablan enérgicamente de la «educación para el cambio» o de la «preparación de la gente para el futuro». Pero, virtualmente, nada sabemos sobre la manera de hacerlos. En el medio más velozmente cambiante con que jamás se haya enfrentado el hombre, seguimos ignorando lastimosamente las reacciones del animal humano.

Tanto nuestros psicólogos como nuestros políticos se sienten turbados por la resistencia, aparentemente irracional, al cambio de que dan muestras ciertos individuos y grupos.

El jefe de empresa que quiere reorganizar un departamento, el profesor que quiere introducir un nuevo método de enseñanza, el alcalde que quiere conseguir una pacífica integración racial en su ciudad, todos ellos tropiezan, en un momento dado, con esta ciega resistencia. Sin embargo, sabemos poco sobre sus orígenes. De la misma manera, ¿por qué algunos hombres anhelan,  incluso febrilmente, el cambio, y hacen todo lo posible para que se produzca, mientras otros huyen de él? No sólo no encontré  respuesta convincente a estas preguntas, sino que descubrí que incluso carecemos de una teoría adecuada de la adaptación, sin la cual es sumamente improbable que hallemos aquella respuesta.

Por consiguente, el objeto de este libro es contribuir a nuestra adaptación al futuro, a enfrentarnos, con mayor eficacia, con el cambio personal y social, aumentando nuestra comprensión de cómo el hombre responde a tal cambio. Con este fin, plantea una amplia y nueva teoría de la adaptación.

También llama la atención sobre una distinción importante y a menudo desdeñada. Casi invariablemente, el estudio de los efectos del cambio se centra más en el destino a que éste nos conduce que en la rapidez del viaje. En este libro, trato de demostrar que el ritmo del cambio tiene implicaciones completamente distintas, y a veces más importantes, que las direcciones del cambio. A menos que captemos este hecho, no puede ser fructífero ningún intento de comprender la adaptabilidad.

Todo propósito de definir el contenido del cambio debe incluir las consecuencias de la rapidez de éste, como parte de tal  contenido.

William Ogburn, con su célebre teoría de la retardación cultural, sostuvo que las tensiones sociales proceden de los grados desiguales de cambio en diferentes sectores de la sociedad. El concepto de «shock» del futuro —y la teoría de la adaptación que se desprende de él— indica vivamente que tiene que haber un equilibrio no sólo entre los grados de cambio de los diferentes  sectores, sino también entre la velocidad de cambio del medio y la rapidez limitada de la reacción humana. Pues el «shock» del  futuro nace de la creciente diferencia entre las dos.

Sin embargo, este libro pretende algo más que presentar una teoría. Aspira, también, a demostrar un método. Hasta ahora, el hombre estudió el pasado para arrojar luz sobre el presente. Yo he dado la vuelta al espejo del tiempo, convencido de que una imagen coherente del futuro puede darnos valiosas perspectivas sobre el día de hoy. Si no empleamos el futuro como  instrumento intelectual, nos será cada vez más difícil comprender nuestros problemas personales y públicos. En las páginas siguientes, empleo deliberadamente este instrumento para mostrar lo que puede conseguirse con él.

Por último —y esto no es menos importante—, el libro tiende a cambiar al lector, en un sentido sutil pero importante. Por razones que veremos claramente en las páginas que siguen, la mayoría de nosotros tendremos que adoptar una nueva posición frente al futuro, una nueva y aguda percepción del papel que éste desempeña en el presente, si queremos enfrentarnos con éxito a los rápidos cambios.

Este libro va encaminado a aumentar la conciencia del futuro del lector.

El grado en que éste, después de terminada la lectura de este libro, reflexione, especule o trate de prever los acontecimientos futuros nos dará la medida de su eficacia.

Sentados estos fines, precisa hacer varias reservas. Una de éstas se refiere a la fugacidad de los hechos. Cualquier reportero experimentado sabe lo que es trabajar sobre un suceso de rabiosa actualidad, que cambia de forma y de significado incluso antes de que se acabe de imprimir el relato. Hoy día, todo el mundo es un suceso de rabiosa actualidad. Por consiguiente, es inevitable que, en un libro escrito en varios años, algunos hechos hayan quedado anticuados entre el momento de estudiarlos y escribirlos y el de su publicación. El profesor que estaba en la Universidad A ha pasado a la Universidad B. El político identificado con la postura X ha adoptado la Y.

Aunque, durante su redacción, me esforcé concienzudamente en mantener al día El «shock» del futuro, alguno de los hechos estudiados ha perdido forzosamente actualidad. (Desde luego, esto ocurre en muchos libros, aunque sus autores prefieren no hablar de ello.) Sin embargo, esta pérdida de actualidad de los datos tiene aquí una importancia especial, pues constituye una prueba de la tesis mantenida en el libro sobre la rapidez del cambio. A los escritores les resulta cada vez más difícil seguir el paso de la realidad. Todavía no hemos aprendido a concebir, estudiar, escribir y publicar en «tiempo real». Por consiguiente, los lectores deben tener más en cuenta el tema general que los detalles.
Otra reserva se refiere al tiempo futuro del verbo «ocurrir». Ningún futurólogo serio se atreve a hacer «predicciones». Esto queda para los oráculos de la televisión y los astrólogos de los periódicos. Nadie que tenga alguna idea de la complejidad de la previsión puede alardear de un conocimiento absoluto del mañana. Es lo que dice  un proverbio deliciosamente irónico atribuido a los chinos: «Profetizar es sumamente difícil… sobre todo con respecto al futuro.»

Esto significa que cualquier declaración sobre el futuro debería, en rigor, ir acompañada de una serie de síes o de peros. Sin  embargo, en un libro de esta clase el empleo de todos los condicionales adecuados sumiría al lector en un alud de indecisiones. Por esto, en vez de hacerlo así, me he tomado la libertad de hablar con rotundidad, sin vacilaciones, confiando en que el lector inteligente comprenderá este problema estilístico. La palabra «ocurrirá» debe leerse siempre como si fuera acompañada de un «probablemente» o de un «en mi opinión». De la misma manera, todas las fechas aplicadas a acontecimientos futuros deben ser
consideradas con un margen de buen criterio.

Sin embargo, la imposibilidad de hablar con certeza y precisión sobre el futuro no puede excusar el silencio. Desde luego, cuando disponemos de «datos sólidos», éstos deben ser tomados en consideración. Pero cuando éstos faltan, el lector responsable —incluso el científico— tiene el derecho y la obligación de fiar en otras clases de pruebas, incluidos los datos impresionistas o anecdóticos y las opiniones de personas bien informadas. Así lo he hecho yo, y no me excuso de ello. Al tratar del futuro, al menos para nuestro actual objeto, es más importante ser imaginativo y perceptivo que un cien por ciento «exacto». Las teorías no tienen que ser «exactas» para ser enormemente útiles. Incluso el error tiene su utilidad.

Los mapas del mundo diseñados por los cartógrafos medievales eran tan inexactos, estaban tan llenos de errores fácticos, que provocan sonrisas condescendientes en la época actual, en que casi toda la superficie de la Tierra ha sido exactamente registrada.

Sin embargo, sin ellos los grandes exploradores no habrían descubierto el Nuevo Mundo. Ni habrían podido trazarse los mejores y más exactos mapas actuales si unos hombres provistos de limitados medios no hubiesen estampado sobre papel sus audaces concepciones de mundos que jamás habían visto.

Nosotros, exploradores del futuro, somos como aquellos antiguos cartógrafos, y en este sentido presento aquí el concepto del «shock» del futuro y la teoría de la adaptación: no como una palabra definitiva, sino como una primera aproximación a las nuevas realidades, llenas de peligros y de promesas, creadas por el impulso acelerador.

Singularidad Tecnológica

En futurología, la singularidad tecnológica (algunas veces llamada simplemente la Singularidad) es un acontecimiento futuro en el que se predice que el progreso tecnológico y el cambio social se acelerarán debido al desarrollo de inteligencia superhumana, cambiando nuestro ambiente de manera tal, que cualquier ser humano anterior a la Singularidad sería incapaz de comprender o predecir. Dicho acontecimiento se ha nombrado así por analogía con la singularidad espaciotemporal observada en los agujeros negros, donde existe un punto en el que las reglas de la física dejan de ser válidas, y donde la convergencia hacia valores infinitos hace imposible el definir una función.

El tiempo que resta antes de que se llegue a ese fenómeno se acelera con la utilización de máquinas para apoyar tareas de diseño o mejoras de diseño de nuevos inventos.

Historia

Las consecuencias de semejante acontecimiento fueron discutidas durante la década de 1960 por I.J. Good, y John von Neumann quien usa el término “singularidad” para describir el progreso tecnológico durante la década de 1950. Sin embargo, no es sino hasta en los 80s que la Singularidad es popularizada por Vernor Vinge. Si la Singularidad ocurrirá o no, es un hecho muy debatido, pero la aproximación más común entre los futuristas la sitúa dentro de la tercera década del Siglo XXI.

Otros, notablemente Raymond Kurzweil, han propuesto teorías que expanden la Ley de Moore hacia tipos de computación que van más allá de los simples transistores, sugiriendo un patrón exponencial de progreso tecnológico. Sin embargo Kurzweil supone que el propio patrón de crecimiento cambia y la aceleración se hace mayor hasta el punto de adquirir un patrón de crecimiento hiperbólico. Lo cual es análogo al espacio hiperbólico de los agujeros negros. Según Kurzweil, este patrón culmina en un progreso tecnológico inimaginable en el Siglo XXI, el cual conduce a la Singularidad, un punto en el cual el crecimiento se hace infinito.

El crecimiento hiperbólico es el patrón que algunos indican que sigue el aumento de la información y de hecho ha sido el ritmo en como ha venido creciendo la población mundial por lo menos hasta principios de siglo. Robert Anton Wilson generalizo la ley del crecimiento de la información bajo el nombre del fenómeno del Jesús saltador, que se inspira en la idea de comenzar a contar los años a partir del nacimiento de Jesús, aunque también parece un nombre irónico y humorística, porque a medida que pasa el tiempo no son pocos los que siguen pensando en el fin del mundo y la inminente llegada de Jesús. Según Wilson, se inspiro en Alfred Korzybski, el autor de la Semántica General, quien habría observado que la información se duplicaba cada cierto tiempo. Korzybski tomo como base, de todo el conocimiento acumulado y disponible por la humanidad, el año 1 después de cristo, Wilson le llama el primer Jesús. La primera duplicación se habría dado durante el apogeo del renacimiento, con lo que se tendrían entonces 2 Jesús. La segunda en el año 1750, 4 Jesús y las siguientes en los años, 1900, 1950, 1960, 1967 y 1973 (128 Jesús). Para el 2000 se calculaba que la información se duplicaba 2 veces en un año. Sin embargo de acuerdo a otro estudio realizado por la Universidad de Berkeley en el año 2004 por los profesores Peter Lyman y Hal Varian, a instancias de Microsoft Research, Intel, HP y EMC, la información que se genera y se registra en el mundo aumenta a un ritmo de solamente 30% anual desde 1999.

Superestructura tecnológica

Las discrepancias surgen a partir de la consideración que se tenga sobre el impacto tecnológico en la sociedad. Si creemos que las tecnologías siempre serán una infraestructura controlada por los humanos o aceptamos que dado su crecimiento acelerado, su cada vez mayor autonomía y su creciente inteligencia (a lo cual no se le ve limites), se pueda aceptar que se convertirán en una superestructura capaz de compartir las decisiones con los humanos.

Por lo que tendremos cuatro enfoques:

1) Los que creen que la tecnología siempre será controlada por los humanos y el único peligro esta en el mal uso que se le dé. Por lo que basta con limitar, prohibir o controlar la utilización de las mismas Desarrollo sostenible.
2) Los que creen que las tecnologías igualarán y superarán a los humanos, surgiendo una superinteligencia. Singularidad tecnológica
3) Los que aceptan que las tecnologías podrán ser una superestructura y creen que dado el contexto actual de poder, estas se convertirían en un competidor demasiado peligroso para los humanos, por lo cual hay que hacer todo lo posible para que esto no suceda. Bioconservadurismo
4) Los que ven a la tecnología como una aliada que nos pueda llevar a una superinteligencia colectiva donde humanos y tecnologías cooperen por un futuro sostenible Sostenibilidad tecnológica

Inteligencia suprahumana

La idea de una singularidad, Vinge la sustenta sobre la ley de Moore que dice que la capacidad de los microchips de un circuito integrado se duplicará cada dos años, lo cual traerá un crecimiento exponencial de la potencia del hardware de las computadoras y de mantenerse este crecimiento acelerado conducirá inevitablemente a que las maquinas le den alcance y luego superen la capacidad del cerebro para procesar la información y según un grafico elaborado por Hans Moravec, la paridad entre el hardware y el cerebro se alcanzará alrededor del 2020 lo cual dará lugar a las maquinas ultra inteligentes.
Vinge define una máquina ultra inteligente como una máquina capaz de superar en mucho todas las actividades intelectuales de cualquier humano independientemente de la inteligencia de este y está convencido de que esa inteligencia superior será la que impulsará el progreso y este será mucho mas rápido e incluso superará a la actual evolución natural, por lo que aparecerán problemas miles de veces más deprisa que la selección natural y afirma que estaremos entrando en un régimen radicalmente diferente de nuestro pasado humano, y es a este evento al que le da el nombre de singularidad.
El transhumanista Nick Bostrom define una superinteligencia de la siguiente forma: Tendrá superinteligencia cualquier intelecto que se comporte de manera bastamente superior en comparación con los mejores cerebro humanos en prácticamente todos los aspectos y en especial estos tres:

• Creatividad científica
• Sabiduría en general
• Desempeño científico


Esta definición deja abierta la manera de como se implementa esa superinteligencia
• Artificial: una computadora digital
• Colectiva: una red de computadoras
• Biológica: cultivo de tejidos corticales
• Híbrida: fusión entre computadoras y humanos

Caminos hacia la singularidad

Según el científico y escritor de ciencia ficción Vernor Vinge, la singularidad se puede alcanzar por diferentes caminos:

  • El desarrollo de un computador que alcance el nivel de inteligencia humana y posteriormente lo supere (superinteligencia artificial).
  • El desarrollo de redes de computadoras que se comporten como superneuronas de un cerebro distribuido que “despierte” como ente inteligente (superinteligencia colectiva).
  • El desarrollo de elementos de interacción con computadoras que permitan a un humano comportarse como un ser superinteligente (superinteligencia hibrida).
  • Manipulaciones biológicas que permitan mejorar en algunos seres el nivel humano de inteligencia (superinteligencia biológica)

Superinteligencia artificial

Surgimiento de una superinteligencia artificial superior a la inteligencia humana. Estamos hablando de que los humanos sean capaces de construir una inteligencia artificial que los iguale y que después, esta inteligencia no humana, sea capaz de superarse a si misma. Dado el crecimiento veloz que tiene el hardware (ley de Moore) y no en el desarrollo de programas que emularan la inteligencia humana como se pretendía en los primeros años de la Inteligencia artificial. Estamos hablando de una inteligencia artificial fuerte que supone que la consciencia es codificable (consideran que los estados mentales son algoritmos altamente complejos) y puede ser descargada del cerebro y copiada en un soporte digital.

Superinteligencia colectiva

Surgimiento de una superinteligencia colectiva donde estén conectados en redes los humanos y las maquinas, siguiendo las ideas de Pierre Levy de una inteligencia colectiva, en la que Internet esta jugando un papel importante y ya algunos están hablando del surgimiento de un cerebro global que se esta formando desde ahora en el contexto de la Web 2.0 y de la naciente Web 3.0. No se puede ignorar el impacto que esta teniendo la Web 2.0 y la gran cantidad de conocimiento que se esta compartiendo en las Wikisredes sociales y blogs y que se podrían ir autoorganizado por medio de laWeb semántica. Lo cual nos lleva a una superestructura tecnológica donde humanos y maquinas cooperan entre si.

Superinteligencia hibrida

Superinteligencia hibrida, Interconexión entre humanos y computadoras, tales como, prótesis, implantes de chip, etc. Lo cual nos lleva al Cyborg, donde se fusionan los humanos con las maquinas. La idea de una transhumanidad que transcienda a la condición humana y con ello superar todos los límites de la especie humana y dar surgimiento a una nueva especie posthumana. Esto nos arrastra a una singularidad fuerte donde humanos y maquinas se fusionan.

Superinteligencia biológica

Superinteligencia biológica, mejoramiento humano por bioingeniería sobre todo modificaciones genéticas, dado que es una inteligencia mejorada por medio de la biología. Se aspira al humano mejorado (humano+) por medio de la bioingeniería. Esto ira conduciendo a la humanidad a una fusión progresiva y menos radical que la anterior.

Si bien algunos autores, como Roger Penrose, piensan que las computadoras no llegarán a ser inteligentes (en el sentido de la prueba de Turing), el camino biológico para llegar a la singularidad tecnológica no parece tener límite alguno.

Riesgos

Los defensores de la singularidad son conscientes de las amenazas que esta implica y consideran los siguientes riesgos existenciales:

• Inteligencia artificial mal programada.

• Mal uso de la nanotecnologia.
• Mala utilización de la biotecnología.
• Uso generalizado de las prótesis (convirtiéndose en un robot)
• Tecnologías autónomas que se escapan de las manos (maquinas que se auto construyen a si mismas)

De aquí que sacan la conclusión que es necesario tomar el control de la evolución humana y abalanzar hacia una transhumanidad. Proponen la sustitución de una especie humana obsoleta por otra especie “superior” con poderes ilimitados y que por medio de las tecnologías emergentes o convergentes (NBIC) se puede alcanzar la posthumanidad.
Fuente: Wikipedia

%d bloggers like this: