Latest Entries »

Big Data

THE BLACKLIST -- Season:Pilot -- Pictured: James Spader as

THE BLACKLIST — Season:Pilot — Pictured: James Spader as “Red” Raymond Reddington — (Photo by: Patrick Ecclesine/NBC)

A la gente le encanta condenar al gran hermano a la NSA y que el gobierno escuche a escondidas su vida privada, sin embargo todos ellos se conectan voluntariamente
a internet y entregan los detalles mas íntimos de sus vidas a Big Data.

A la mayoria no le importa que google conozca su historial de búsqueda.

Pero saben más que eso, conocen tus habitos, los bancos que usas,las pastillas que tomas los hombres o las mujeres con quien te acuestas
cada información vale algo para alguien…..

Raymond Reddington
Black List

El Big Data o Datos Masivos se refiere a sistemas informáticos basados en la acumulación a gran escala de datos y de los procedimientos usados para identificar patrones recurrentes dentro de esos datos. En la literatura científica en español con frecuencia se usa directamente el término en inglés Big Data (de big [amount of] data), tal como aparece en el ensayo seminal de Viktor Schönberger Big data: La revolución de los datos masivos.

La disciplina dedicada a los datos masivos se enmarca en el sector de las tecnologías de la información y la comunicación. Esta disciplina se ocupa de todas las actividades relacionadas con los sistemas que manipulan grandes conjuntos de datos. Las dificultades más habituales vinculadas a la gestión de estas cantidades de datos se centran en la captura, el almacenamiento,2 búsqueda, compartición, análisis,3 y visualización. La tendencia a manipular ingentes cantidades de datos se debe a la necesidad en muchos casos de incluir los datos relacionados del análisis en un gran conjunto de datos, como los análisis de negocio, publicitarios, los datos de enfermedades infecciosas, el espionaje y seguimiento a la población o la lucha contra el crimen organizado.4

El límite superior de procesamiento se ha ido desplazando a lo largo de los años. De esta forma, los límites fijados en 2008 rondaban el orden de petabytes a zettabytes de datos.5 Los científicos con cierta regularidad encuentran limitaciones debido a la gran cantidad de datos en ciertas áreas, tales como la meteorología, la genómica,6 la conectómica, las complejas simulaciones de procesos físicos7 y las investigaciones relacionadas con los procesos biológicos y ambientales,8 Las limitaciones también afectan a los motores de búsqueda en internet, a los sistemas finanzas y a la informática de negocios. Los data sets crecen en volumen debido en parte a la introducción de información ubicua procedente de los sensores inalámbricos y los dispositivos móviles (por ejemplo las VANETs), del constante crecimiento de los históricos de aplicaciones (por ejemplo de los logs), cámaras (sistemas de teledetección), micrófonos, lectores de radio-frequency identification.9 10 La capacidad tecnológica per-cápita a nivel
mundial para almacenar datos se dobla aproximadamente cada cuarenta meses desde los años ochenta.11 Se estima que en 2012 cada día fueron creados cerca de 2,5 trillones de bytes de datos (del inglés quintillion, 2.5×1018).

Datos masivos es un término que hace referencia a una cantidad de datos tal que supera la capacidad del software habitual para ser capturados, gestionados y procesados en un tiempo razonable. El volumen de los datos masivos crece constantemente. En 2012 se estimaba su tamaño de entre una docena de terabytes hasta varios petabytes de datos en un único conjunto de datos. En la metodología MIKE2.0 dedicada a investigar temas relacionados con la gestión de información, definen big data en términos de permutaciones útiles, complejidad y dificultad para borrar registros individuales.

En 2001, en un informe de investigación que se fundamentaba en congresos y presentaciones relacionadas,13 el analista Doug Laney del META Group (ahora Gartner) definía el crecimiento constante de datos como una oportunidad y un reto para investigar en el volumen, la velocidad y la variedad. Gartner continúa usando datos masivos como referencia.14 Además, grandes proveedores del mercado de datos masivos están desarrollando soluciones para atender las demandas más críticas de cómo procesar tal cantidad de datos, como MapR, Cyttek Group y Cloudera.

Existen muchísimas herramientas para tratar con Big Data. Nombres como Hadoop, NoSQL, Cassandra, Business Intelligence, Machine Learning, MapReduce… son sólo algunos de los más conocidos. Ellos tratan con algunos de los tres tipos de Big Data:

  • Datos estructurados (Structured Data): Datos que tienen bien definidos su longitud y su formato, como las fechas, los números o las cadenas de caracteres. Se almacenan en tablas. Un ejemplo son las bases de datos relacionales y las hojas de cálculo.
  • Datos no estructurados (Unstructured Data): Datos en el formato tal y como fueron recolectados, carecen de un formato específico. No se pueden almacenar dentro de una tabla ya que no se puede desgranar su información a tipos básicos de datos. Algunos ejemplos son los PDF, documentos multimedia, e-mails o documentos de texto.
  • Datos semiestructurados (Semistructured Data): Datos que no se limitan a campos determinados, pero que contiene marcadores para separar los diferentes elementos. Es una información poco regular como para ser gestionada de una forma estándar. Estos datos poseen sus propios metadatos semiestructurados16 que describen los objetos y las relaciones entre ellos, y pueden acabar siendo aceptados por convención. Un ejemplo es el HTML, el XML o el JSON.

¿De dónde provienen todos estos datos? Los fabricamos directa e indirectamente segundo tras segundo. Un iPhone hoy en día tiene más capacidad de computación que la NASA cuando el hombre llegó a la luna17 por lo que la cantidad de datos generados por persona y unidad de tiempo es inmensa. Catalogamos la procedencia de los datos según las siguientes categorías:18

Generados por las personas: Enviar correos electrónicos por e-mail o mensajes por WhatsApp, postear en Facebook, tuitear contenidos o responder a una encuesta por la calle son algunas acciones cuotidianas que crean nuevos datos y metadatos que pueden ser analizados. Se estima que cada minuto al día se envían más de 200 millones de e-mails, se comparten más de 700.000 piezas de contenido en Facebook, se realizan dos millones de búsquedas en Google o se editan 48 horas de vídeo en YouTube.19 Por otro lado, las trazas de utilización en un sistema ERP, incluir registros en una base de datos o introducir información en una hoja de cálculo son otras formas de generar estos datos.
Transacciones de datos: La facturación, las llamadas o las transacción entre cuentas generan información que tratada pueden ser datos relevantes. Un ejemplo más claro lo encontraremos en las transacciones bancarias: lo que el usuario conoce como un ingreso de X euros, la computación lo interpretará como una acción llevada a cabo en una fecha y momento determinado, en un lugar concreto, entre unos usuarios registrados, y más metadatos.
E-marketing y web: Generamos una gran cantidad de datos cuando navegamos por internet. Con la web 2.0 se ha roto el paradigma webmaster-contenido-lector y los mismos usuarios se convierten en creadores de contenido gracias a su interacción con el sitio. Existen muchas herramientas de tracking utilizadas en su mayoría con fines de marketing y análisis de negocio. Los movimientos de ratón quedan grabados en mapas de calor y queda registro de cuánto pasamos en cada página y cuándo las visitamos.
Machine to Machine (M2M): Son las tecnologías que comparten datos con dispositivos: medidores, sensores de temperatura, de luz, de altura, de presión, de sonido… que transforman las magnitudes físicas o químicas y las convierten en datos. Existen desde hace décadas, pero la llegada de las comunicaciones inalámbricas (Wi-Fi, Bluetooth, RFID…) ha revolucionado el mundo de los sensores. Algunos ejemplos son los GPS en la automoción o los sensores de signos vitales en la medicina.
Biométrica: Son el conjunto de datos que provienen de la seguridad, defensa y servicios de inteligencia.20 Son cantidades de datos generados por lectores biométricos como escáneres de retina, escáneres de huellas digitales, o lectores de cadenas de ADN. El propósito de estos datos es proporcionar mecanismos de seguridad y suelen estar custodiadas por los ministerios de defensa y departamentos de inteligencia. Un ejemplo de aplicación es el cruce de ADN entre una muestra de un crimen y una muestra en nuestra base de datos.

Fuente: Wikipedia

Regénesis, la serie

El futuro está aquí. Bioterrorismo. Los bebés del diseño. Frankenstein. De repente, la humanidad posee la capacidad de jugar a ser Dios. Pero, ¿es el progreso – o locura? ¿Será la ciencia de vanguardia nuestra salvación? O nuestra desaparición?

Imagen real del virus del Ebola

Imagen real del virus del Ebola tomada mediante microscopía electrónica

ReGénesis es una serie de televisión canadiense producida por The Movie Network y Movie Central en conjunto con Shaftesbury Films. La serie, que se emitió durante cuatro temporadas, gira en torno a los científicos de NorBAC (“Comisión Asesora de Biotecnología de América del Norte”), una organización ficticia con un laboratorio con sede en Toronto. La organización investiga los problemas de carácter científico, como el bio-terrorismo, las enfermedades misteriosas o cambios radicales en el medio ambiente a lo largo de Canadá, Estados Unidos y México. NorBAC está dirigida por David Sandström (interpretado por Peter Outerbridge), el jefe científico y biólogo molecular. Este personaje y sus colaboradores a menudo se ocupa de cuestiones sociales, políticas y éticas de actualidad relacionadas con la ciencia actual.

Regénesis tiene un juego de exploración de realidad ampliada que  atrae a los espectadores en una conspiración y el misterio que entra y sale de la serie de televisión, hace uso de Internet, correo electrónico, otros medios y conceptos para sumergir al espectador en la trama, desdibujando la línea entre la ficción y la realidad. La Realidad Ampliada de Regenesis aprovecha el poder de los fans entusiastas que siembran en el sitio de la serie contenido  de discusiones e investigaciones en colaboración. Se requiere un amplio conocimiento de los diferentes temas de química y biotecnología para averiguar por qué la trama en muchos episodios no puede ser verdad (o realmente pueda ser verdad).

Aled Edwards, consultor científico de la serie, es un notable biólogo molecular canadiense y el director de Structural Genomics Consortium.

Fuente: Wikipedia

 

La serie consta de 4 temporadas de 13 episodios cada una.

Capítulos:
1ª TEMPORADA
1. Bebé Bomba (baby bomb)
2. Recambios (spare parts)
3. La Cara de Dios (the face of God)
4. Priones (prions)
5. El virus más antiguo (the oldest virus)
6. Las Pruebas (the trials)
7. Ligera esperanza (faint hope)
8. El Apagón (blackout)
9. Guerra secreta (the secret war)
10. El origen (the source)
11. La promesa (the promise)
12. Resurrección (resurrection)
13. La Noche más larga (the longest night)
2ª TEMPORADA
1. China
2. Mutante de escape
3. El cóctel
4. Oscuro y oscurecimiento
5. Un gran cambio
6. Nuestros hombres en habana
7. Habla con él
8. Neblina
9. Un gen en una botella
10. Los rebeldes y los inocentes
11. Algo huele mal
12. Encefalitis alérgica
13. Fin
3ª TEMPORADA
1. Un momento
2. Polvo en el viento
3. Extraños en la noche
4. Sueño con genomas
5. El dios del comercio
6. Fantasmas
7. Una mano lava la otra
8. Latentes
9. Quemémoslo
10. Insoportable
11. A la deriva
12. Órgano de Jacobson
13. De vuelta al futuro
4ª TEMPORADA
1. Tuberculosis o no tuberculosis
2. Las consecuencias
3. Hepatitis y Melinkov
4. El beso
5. Mentiras suspicaces
6. Cierre en la carrera
7. Corazones y mentes
8. Camada 14
9. Liberado
10. Lo que se siente
11. Sin sangre
12. Al son de la ciencia
13. La verdad

 

Light Painting and Stop Motion

This slideshow requires JavaScript.

Light painting

Light painting es una técnica fotográfica en la que las exposiciones se hacen moviendo una fuente de luz de mano o moviendo la cámara. El término Light painting término también abarca las imágenes encendidas desde fuera del marco con fuentes de luz de mano. El Light painting se remonta al año 1914, cuando Frank Gilbreth, junto con su esposa Lillian Moller Gilbreth, utilizó pequeñas luces y el obturador abierto de una cámara para seguir el movimiento de la manufactura y los empleados de oficina. Man Ray, en su 1935 series “Space Writing”, fue el primer fotógrafo de arte conocido el uso de la técnica y Barbara Morgan comenzó a hacer obras de luz en el año 1940.

Al mover la fuente de luz, la luz se puede utilizar para iluminar selectivamente partes de la asignatura o “pintar” una imagen, alumbrando directamente en el lente de la cámara. Light painting requiere una velocidad de obturación lenta, por lo general un segundo o más. Light painting puede asumir las características de un dibujo a lápiz rápida.

Light painting moviendo la cámara, también llamada pintura de la cámara, es la antítesis de la fotografía tradicional. Por la noche, o en un cuarto oscuro, la cámara se puede sacar el trípode y se utiliza como un pincel. Un ejemplo es el uso del cielo nocturno como el lienzo, la cámara que el cepillo y paisajes urbanos (entre otras fuentes de luz) en la paleta. Poner la energía en mover la cámara por acariciar las luces, por lo que los patrones y se fijan fondos puede crear imágenes artísticas abstractas.

El light painting puede hacerse interactivo utilizando una cámara web. La imagen pintada ya se puede ver mientras dibuja usando un monitor o proyector.

Otra técnica que se utiliza en la creación de arte de la luz es la proyección de imágenes sobre superficies irregulares (caras, cuerpos, edificios, etc), de hecho “pintura” con la luz.

Stop Motion

El stop motion, animación en volumen, parada de imagen, paso manivela, foto a foto o cuadro por cuadro es una técnica de animación que consiste en aparentar el movimiento de objetos estáticos por medio de una serie de imágenes fijas sucesivas. En general se denomina animaciones de stop motion a las que no entran en la categoría de dibujo animado, ni en la de animación por ordenador; esto es, que no fueron dibujadas ni pintadas, sino que fueron creadas tomando imágenes de la realidad. Así pues, el stop motion se utiliza para producir movimientos animados de cualquier objeto, tanto rígido como maleable. Como los juguetes, bloques de construcción, muñecos articulados o personajes creados con plastilina.

Podríamos también definir esta forma de animar como la animación en estado puro, debido a que se construye el movimiento fotograma a fotograma; manipulando el muñeco con las propias manos, así como trabajando con otros materiales (plastilina, arena, recortes de papel, tizas sobre suelos y muros…) de manera progresiva, hacia adelante, sin posibilidad alguna de retroceso.

Métodos y variantes

Existen infinitos procedimientos de animación en stop motion, esto es debido a que esta técnica de animación es un procedimiento artístico y cada autor adecúa dicha técnica a aquello que quiere expresar. Por ello el stop motion posee una gran riqueza de métodos y variantes.

Podríamos distinguir dos grandes variantes de animación en stop motion: la realizada con plastilina o cualquier otro material maleable, (conocida también con la demoninación inglesa claymation) y la realizada con objetos rígidos. A su vez, la animación realizada con plastilina puede hacerse al estilo libre. Es decir, cuando las figuras se van transformando durante el progreso de animación. Un ejemplo claro de esta manera de animar la encontramos en la obra Forest, de Allison Schulnik (2010). Por otra parte, puede también orientarse a personajes que mantienen una figura consistente en el transcurso de la animación. Un claro ejemplo podemos verlo en todos los trabajos de la productora inglesa Aardman Animations. Para lograr una animación consistente, los personajes poseen una armadura articulada en su interior que se recubre de plastilina. La australiana Mary and Max (2009) es otra muestra de esa forma de realizar animaciones en stop motion.

Y del mismo modo, en la animación realizada con objetos rígidos también podríamos diferenciar dos formar de proceder. Una es cuando se utilizan personajes con rostros rígidos (parecidos a las marionetas) y articulaciones construidas generalmente con una armadura articulada interna (igual o similar a la anteriormente descrita para los personajes de plastilina). Algunos ejemplos representativos son las películas The Nightmare Before Christmas (1993), Крокодил Гена / Gena the crocodille (1969) y el cortometraje Violeta, la pescadora del mar negro (2006). La otra forma de proceder es cuando se utilizan objetos no articulados; el movimiento que se genera es más tosco, pero no por ello menos falto de expresividad. Podemos encontrar un ejemplo muy representativo de esta forma de animar en Panique au village (2009).

La pixilación es una variante en la técnica del stop motion que consiste en tomar imágenes de una persona manteniendo una postura fija para cada fotograma, convirtiéndose ésta, en una marioneta humana. Ejemplos de ello son las películas de Mike Jittlov como asistente en The wizard of speed and time (1980), el cortometraje Gisele Kerozene (1989) y algunos trabajos del animador escocés Norman McLaren. Encontramos también una interesante combinación de pixilación con animación de muñecos, filmada de forma simultanea, en Něco z Alenky / Alice de Jan Švankmajer(1988), una película del mismo año, llamada Beetlejuice”, en la cual el stop motion, se puede apreciar notablemente en algunas escenas y en The Secret Adventures of Tom Thumb (1993), realizada por Bolex Brothers y dirigida por Dave Borthwick.

Una variación más del stop motion es la animación gráfica de fotografías (en su totalidad o en partes). Algunos ejemplos representativos son Frank Film (1973), Braverman’s Condensed Cream of Beatles (1972) y Cada día paso por aquí (2004).

egg-animation_1

Ahora un video que mezcla las 2 técnicas.

Cloud Atlas

Cloud Atlas

Sonmi-451: Nuestras vidas no nos pertenecen. Del vientre a la tumba, estamos sujetos a otros. El pasado y el presente. Y por cada delito y cada gesto de amabilidad, construimos nuestro futuro.

Monsters are real

“Monsters are real, and ghost are real too. They live inside us, and sometimes they win.”

Stephen King.filmwildthings1review

El Hombre de Piltdown, el falso eslabon perdido

716px-Sterkfontein_Piltdown_man2

El hombre de Piltdown es conocido por ser uno de los más grandes fraudes en la historia de la paleoantropología, principalmente porque se creyó verdadero durante cuarenta y cinco años, desde que se anunciara su descubrimiento en 1908, hasta 1953 cuando el fraude fue finalmente expuesto. La historia de este engaño comenzó y se basó en unos restos óseos (en concreto un cráneo parcial, un diente suelto y una mandíbula con dientes) descubiertos en Inglaterra en 1912, en Piltdown, un pueblo de Sussex.

Un obrero los encontró en una cantera, y se los entregó al arqueólogo aficionado Charles Dawson, que los presentó, junto con el eminente paleontólogo Smith Woodward (del Museo Británico), en la Sociedad Geológica de Londres. Durante años, se mantuvo el debate sobre el origen de estos restos, y la prensa dijo que muy probablemente correspondieran al eslabón perdido, denominándolo Eoanthropus dawsonii. Estos restos fueron aceptados por la comunidad científica sin mayores análisis, debido principalmente a que era perfecto e idéntico a la idea de aquella época sobre el eslabón perdido.

La idea de esa época era que el eslabón tenía que haber tenido un gran cerebro pero igualmente presentar rasgos simiescos, y evolucionar a posterioriormente a una apariencia humana; idea contraria a la existente ahora y que presentan los fósiles verdaderos. No obstante, comenzaron a surgir cada vez más dudas sobre la antigüedad y el origen de esos restos. Finalmente, el dentista A.T. Marston, determinó que los dientes de ese esqueleto correspondían evidentemente a un orangután, el diente suelto a un mono y el cráneo a un Hominidae (Homo sapiens): a partir de entonces, los análisis del contenido en flúor de los huesos demostraron que el enterramiento había sido intrusivo, así como que el color ferruginoso oscuro de los huesos se debía a un tratamiento químico, para uniformar las diferencias de color entre la mandíbula (más moderna) y el cráneo (más antiguo).

Nadie sabe quién cometió el fraude, y algunos lo atribuyen a los descubridores originales, señalando sobre todo a Dawson, motivado por el hecho de que en las islas británicas no había sido descubierto ningún fósil humano, mientras que en el resto de Europa y fundamentalmente en África sí. Sin embargo, el profesor Douglas dejó a su muerte una cinta magnética en la que señalaba que el autor de la falsificación fue el archifamoso profesor Sollas, que pretendía con ello desprestigiar a su rival Woodward.

A pesar del fraude, se ha erigido, por suscripción popular, en el lugar donde se descubrieron los huesos, un monumento honorífico a estos restos: el propio Woodward asistió a la inauguración. Igualmente, existen teorías diversas que han atribuido la invención a algunos de los hombres más famosos de la época, incluyendo a Arthur Conan Doyle y a Teilhard de Chardin.

Por mucho tiempo se acusó a Dawson de ser el único culpable en el engaño, pero Gould asegura que su investigación muestra que Teilhard, que acababa de ser ordenado sacerdote y que en ese entonces estaba estudiando paleontología, participó en la “conspiración de Piltdown.” Gould dice que algunos de los huesos que se encontraron en las fosas de Piltdown provenían de países en los cuales Teilhard había recogido especímenes en viajes anteriores. Además, en las cartas que Teilhard envió a uno de los científicos que descubrieron el engaño, Gould afirma que Teilhard mintió para ocultar su participación en la intriga.

Fuente: Wikipedia

Video: El hombre de Piltdown

El experimento del pequeño Albert

El pequeño Albert

El experimento del Pequeño Albert es una demostración empírica del procedimiento de condicionamiento clásico realizada por John B. Watson y su colaboradora Rosalie Rayner, en la Universidad Johns Hopkins.

Según describen Watson y Rayner (1920), los objetivos de este experimento eran:

¿Puede condicionarse a un niño para que tema a un animal que aparece simultáneamente con un ruido fuerte?
¿Se transferirá tal miedo a otros animales u objetos inanimados?
¿Cuánto persistirá tal miedo? No lo sabremos hasta finalizar el experimento con el pequeño Albert.

Se lo examinó para determinar si existía en él un miedo previo a los objetos que se le iban a presentar (animales con pelo), examen que fue negativo. Sí se identificó un miedo a los sonidos fuertes (como el producido al golpear una lámina metálica con un martillo fuertemente).

El experimento inició cuando Albert tenía 11 meses y tres días. El diseño era presentarle al pequeño Albert un ratón de color blanco y al mismo tiempo un ruido fuerte (golpeando una barra detrás de la cabeza del niño). Después de varios ensayos, el niño sollozó ante la presencia de una rata, y luego mostró generalización del estímulo ante bloques, un perro, lana, un abrigo, etc.

EI (ruido)  ———–> RI (llanto)

EC (objeto blanco) —-> RC (llanto)
littlealbertDesgraciadamente, el experimento no alcanzó la última fase, es decir, el descondicionamiento, ya que Albert fue sacado de la unidad hospitalaria en que se encontraba antes de su conclusión. Los ensayos habían durado 31 días. Watson había planeado desensibilizar al niño relacionando los objetos que provocaban temor con estímulos agradables. Por ejemplo, la rata blanca con la leche caliente, que los bebés consideran una experiencia amorosa y relajante.

Se dice que el pequeño Albert quedó condicionado respecto a las ratas y los demás objetos que le presentaron durante toda su vida, pero lo cierto es que no se sabe con certeza qué sucedió.

Afortunadamente, en la actualidad no es posible realizar este tipo de experimentos. Casos como el del pequeño Albert abrieron un debate sobre la ética a la hora de experimentar con seres humanos contribuyendo al establecimiento de necesarios límites.

Los conductistas sostienen, con cierto humor, que si Albert hubiese acudido a la consulta de un psicoanalista para superar su posible temor hacia los abrigos de pieles se le convencería de que en su primera infancia tuvo un trauma sexual con su madre.

Para el freudiano, el sexo o el amor son los principales sentimientos de los que surgen las respuestas condicionadas que, más tarde, limitan y distorsionan la personalidad. Sin embargo, en este caso, como hemos visto, el trastorno emocional del adulto no fue determinado por un problema sexual. No obstante, también el conductismo ha sido objeto de crítica por otros psicólogos al ser una escuela que no toma en cuenta cómo se siente el individuo estudiado o qué piensa; se centra esencialmente en qué hace, cuáles son sus reacciones y cómo se puede condicionar.

Fuente: Wikipedia

Video: El pequeño Albert experimento

Nahoko Kojima professional paper cut artist

Nahoko Kojima is a professional paper cut artist who is currently living in London where she is working on her most ambitious piece yet, entitled Byaku. This work is due to be unveiled at Jerwood Space, London, Summer 2013. Her beautiful paper cut artworks can take almost a half a year to complete. The and are often created out of a single sheet of paper. She is known for her very successful Cloud Leopard piece which was unveiled at Saatchi Collect earlier this May. Her new work Byaku is inspired by the forces of nature and when completed will reveal a life-size swimming polar bear. Kojima’s process involves hand cutting a one single sheet of white Japanese Washi paper. See more after the jump!
http://hifructose.com/2013/06/05/nahoko-kojimas-paper-cut-artworks-are-a-force-of-nature/

PAPER_CUT_ART_NKOJIMA_BYAKU_DSC_0514 Nahoko Kojimasolo-6 Papercut_Art_Nahoko_Kojima_Cloud_Leopard_Paris_0255 nahoko-kojima Papercut_Art_Nahoko_Kojima_Cloud_Leopard_Paris_0239 Nahoko Kojimasolo-3 clerkenwell-2013-4681 Nahoko-Kojima-2 paper-cut-art-nahoko-kojima-designboom-05 paper-cut-art-nahoko-kojima-designboom-01 Saatchi_Papercut_Art_Nahoko_Kojima_Cloud_Leopard_0188 Saatchi_Papercut_Art_Nahoko_Kojima_Cloud_Leopard_0048

Nahoko Kojima es un artista de recorte de papel profesional que actualmente vive en Londres, donde está trabajando en su obra más ambiciosa, titulada Byaku. Este trabajo previsto se dio a conocer en Jerwood, Londres, verano 2013. Sus hermosas obras de arte de corte de papel pueden tardar casi la mitad de un año en completarse. Regularmente son creados de una sola hoja de papel. Ella es conocida por su gran éxito “Nube leopardo” pieza que fue presentada en Saatchi Collect a principios de  mayo.

Su nuevo Byaku trabajo está inspirado por las fuerzas de la naturaleza y una vez terminado revelará el tamaño real  de un oso polar nadando. El proceso de Kojima consiste en cortar una sola hoja de papel japones Washi. Ver más información en el  siguiente link.

http://hifructose.com/2013/06/05/nahoko-kojimas-paper-cut-artworks-are-a-force-of-nature/

Think about what you could save when you save water

Procura no atropellar mis derechos con tus creencias

derechos y creencias_thumb[2]

elojoquetodolove2

Científicos israelíes ponen en marcha la corteza visual dormida con un innovador método de sustitución sensorial.

Investigadores de la Universidad Hebrea de Jerusalén han demostrado que las personas ciegas pueden “ver” y describir objetos, e incluso identificar letras y palabras, usando un sistema que traduce imágenes en sonido. El método permitió que, en tan solo 70 horas de entrenamiento, los invidentes alcanzasen una agudeza visual que, aunque no implicó la activación del sistema oftalmológico del cuerpo, sí activó la red de identificación visual del cerebro. Por Yaiza Martínez.

Se suele pensar que si la corteza visual del cerebro se ve privada de la información visual en la más tierna infancia, posteriormente no podrá desarrollar su especialización funcional y, por tanto, la restauración de la vista en un futuro resultará casi imposible.

Sin embargo, científicos de la Universidad Hebrea de Jerusalén han constatado, usando un equipo fotográfico y sonoro especializado, que las personas ciegas en realidad sí pueden “ver” y describir objetos, e incluso identificar letras y palabras.

El hallazgo ha sido posible gracias a un estudio realizado por un equipo de investigadores dirigido por Amir Amedi, del Edmond and Lily Safra Center for Brain Sciences y del Institute for Medical Research Israel-Canada (IMRIC) de la Universidad Hebrea, en el que se aplicó un nuevo paradigma de entrenamiento para ciegos, basado en dispositivos sensoriales de sustitución (SSD).

Los SSD son soportes sensoriales no invasivos que proporcionan información visual a los invidentes, a través de los sentidos que estos sí tienen. Por ejemplo, un usuario con un SSD visual-auditivo llevará, en un entorno clínico o cotidiano, una cámara en miniatura conectada a un pequeño ordenador (o teléfono inteligente), así como auriculares estéreo.

Este sistema hace que las imágenes se vuelven “sonoras”, gracias a un algoritmo de predicción, lo que permite al usuario escuchar y luego interpretar la información visual procedente de la cámara.

Desarrollo de una gran agudeza visual

Las personas ciegas que participaron en este estudio alcanzaron un nivel de agudeza visual que supera a la establecido por los criterios para la ceguera de la Organización Mundial de la Salud (OMS), informa la Universidad Hebrea de Jerusalén a través de Alphagalileo.

La capacidad “visual” desarrollada por estos individuos, aunque no es convencional en el sentido de que no implicó la activación del sistema oftalmológico del cuerpo, realmente activó la red de identificación visual del cerebro.

Las pruebas realizadas con estas personas demostraron que, tras 70 horas de entrenamiento con el método desarrollado en el laboratorio de Amedi, estas pudieron utilizar con facilidad los SSD para clasificar imágenes en categorías de objetos (rostros, casas, formas del cuerpo, objetos y texturas cotidianas).

Asimismo, los participantes también fueron capaces de establecer la localización de personas, identificar expresiones faciales e, incluso, leer letras y palabras. Los resultados obtenidos han aparecido publicados en el último número de la revista Neuron.

¿Qué sucede en el cerebro cuando se aprende a “ver”?

Por otra parte, los investigadores de la Universidad Hebrea analizaron en este trabajo lo que sucede en el cerebro cuando los ciegos aprenden a ver a partir de sonidos. En concreto, los científicos evaluaron la activación de la corteza visual a partir de la adquisición de agudeza visual, puesto que se suponía que la corteza visual permanece inactiva en ciegos.

Para realizar estas observaciones, Amedi y su equipo utilizaron la tecnología de registro de imágenes por resonancia magnética funcional (fMRI), un procedimiento clínico y de investigación que permite mostrar en imágenes las regiones cerebrales que ejecutan una tarea determinada.

Con la fMRI, los investigadores pudieron medir la actividad neuronal de las personas ciegas de nacimiento que “veían”, gracias a los SSD, imágenes en alta resolución de letras, caras, casas, objetos cotidianos y formas corporales.

Los resultados de estos análisis fueron sorprendentes: se constató que, gracias a los sonidos, no solo se activaba la corteza visual de los invidentes participantes en el estudio, sino que, además, los cerebros de estos mostraban selectividad para aquellas categorías visuales con que clasifican imágenes los cerebros de personas que sí ven.

Además, se constató que una parte específica del cerebro, conocida como el ‘Área de la Forma de Palabra Visual’ (AFPV) – descubierta por vez primera en personas videntes por Laurent Cohen y Stanislas Dehaene del Hospital Pitié-Salpêtrière del INSERM-CEA de Francia- también funcionaba en las personas privadas de vista del estudio.

Se sabe que la AFPV tiene, en personas no ciegas, un papel en la lectura, y que esta área se activa al ver y leer letras, más que ante cualquier otro objeto visual. En el caso de los ciegos analizados, los científicos comprobaron que, después de sólo unas decenas de horas de capacitación con los SSD, estos presentaban una mayor activación de la AFPV ante las letras que para cualesquiera otras de las categorías visuales probadas.

De hecho, la AFPV resultó ser tan plástica y proclive a cambiar, que mostró una actividad incrementada para las letras de los SSD tras menos de dos horas de entrenamiento, en uno de los participantes en el estudio.

“Despertar” la visión en el cerebro

Según Amedi, esto demuestra que “el cerebro adulto es más flexible que lo que pensábamos”. Esta y otras investigaciones recientes han demostrado que múltiples áreas del cerebro no son específicas de un sentido determinado (la visión, el oído o el tacto), sino que, además, pueden compartir varias modalidades.

Todo ello sugiere que, en los ciegos, las áreas cerebrales podrían ser “despertadas” para procesar propiedades y tareas visuales, años después de que estos hayan perdido la vista, e incluso aunque hayan sido ciegos toda la vida, usando las tecnologías y los métodos de entrenamiento adecuados, afirma Amedi.

Los hallazgos realizados también proporcionan la esperanza de que la reintroducción de señales en los centros visuales del cerebro de personas ciegas pueda restaurar la visión de estas. En este sentido, los SSD podrían resultar útiles en la rehabilitación visual del cerebro.

Los SSD podrían usarse, por último, como intérpretes sensoriales que indiquen a los ciegos el significado de señales visuales obtenidas por dispositivos externos, como unos ojos biónicos, concluye Amedi.

Historia de la sustitución sensorial

La sustitución sensorial fue introducida por vez primera en los años 60 por el neurocientífico americano Paul Bach-y-Rita, especializado en la plasticidad cerebral.

Bach y Rita utilizó esta técnica entonces como medio para aprovechar una modalidad sensorial, sobre todo el tacto, para la obtención de información del entorno, de manera que esta pudiera ser usada por otra modalidad sensorial, principalmente la vista.

El primer SSD fue creado por este científico para individuos con ceguera congénita, como herramienta de fomento de la plasticidad cerebral. Desde ese momento, en la sustitución sensorial se han basado muchas investigaciones sobre neurociencia cognitiva y percepción. Además, este método ha contribuido al conocimiento de la función cerebral, la cognición humana y la rehabilitación.

http://m.tendencias21.net/La-activacion-del-ojo-de-la-mente-con-sonidos-permite-a-los-ciegos-interpretar-imagenes_a14147.html

http://www.appy-geek.com/Web/ArticleWeb.aspx?regionid=8&articleid=4697937

Falsos recuerdos

Nuestra memoria tiene tendencia a rellenar los huecos con tal de que el escenario tenga sentido, de tal forma que podemos llegar a pensar que el recuerdo es un reflejo veridico de un suceso cuando en realidad puede estar distorsionado hasta hacerlo irreconocible.
 

Un recuerdo falso es un recuerdo de un evento que no ocurrió o una distorsión de un evento que ocurrió, según se puede saber por hechos corroborables externamente.
Se sabe que la memoria sólo es confiable hasta cierto punto, bien sea por no recordar cosas que se saben, o por recordarlas incorrectamente. La identificación por parte de testigos en casos criminales es otro ejemplo de memoria no fiable, y recientemente se han producido cambios en el procedimiento penal en algunos estados y condados de los Estados Unidos. De las primeras 130 exoneraciones por ADN, 111, es decir, casi el 78%, fueron casos de identidad confundida. La continuidad de la memoria no es garantía de verdad, y la alteración de la memoria no es garantía de falsedad.

Hay una controversia importante respecto de los recuerdos falsos. Nuestro sentido de identidad, de quiénes somos y qué hemos hecho, está vinculado con nuestros recuerdos, y puede ser inquietante que eso sea cuestionado. La amnesia, la enfermedad de Alzheimer y el trastorno por estrés postraumático son ejemplos de pérdida dramática de los recuerdos, con efectos devastadores para el enfermo y para quienes lo rodean. Los recuerdos falsos también pueden ser traumáticos para cualquiera que esté involucrado, especialmente si no hay acuerdo en que el recuerdo sea falso. Las consecuencias se amplifican cuando el recuerdo en sí es chocante, como en el caso de los recuerdos de haber sufrido abuso en la infancia que salen a flote en la adultez.

Por lo tanto, en esos casos se hace imperativo no confiar solamente en la memoria, sino insistir en evidencia que pueda corroborar el hecho. Sin embargo, dicha evidencia, que puede apoyar o contradecir el recuerdo, puede no estar disponible o puede no ser definitiva. Dado que los recuerdos falsos pueden parecer tan vívidos y reales como cualquier recuerdo verdadero, se debe ir más allá para entender las formas comunes como aparecen, como errores en las filas de identificación o mala práctica terapéutica, y evitar esos errores. Por ejemplo, los estudios han mostrado que los recuerdos falsos pueden surgir a partir del efecto de información incorrecta. 

Las investigaciones sugieren que la memoria involucra reconstrucción, no solamente recuerdo. Por ejemplo, un niño puede recordar a su padre de pie al lado de la mesa con una expresión de ira y con un cuchillo grande y afilado, vociferando frente a la madre, quien gritaba y parecía muy asustada. Este recuerdo podría ser parcialmente preciso, pero en realidad el niño está recordando fragmentos de una fiesta de Acción de Gracias: el padre estaba cortando el pavo y cantando en voz alta, y la expresión de la mamá se debe a que le está gritando al perro para que se quede quieto. Posteriormente, ese fragmento de recuerdo puede hacerse interpretar “correctamente” como que “papá era violento y mamá siempre tenía miedo de él”.

Muchos defensores de los recuerdos recuperados enfatizan sobre la importancia de distinguir entre los recuerdos comunes y los traumáticos. Los estudios han mostrado que los recuerdos pueden ser implantados, pero no hay estudios sobre recuerdos traumáticos implantados y sus efectos relacionados, como el trastorno por estrés postraumático y el trastorno de identidad disociativo, puesto que tales estudios no serían éticos.

Síndrome de Falso Recuerdo o Falsa Memoria (FMS): este es el término utilizado para la hipótesis que describe un estado mental en el cual un individuo tiene un alto número de recuerdos muy vívidos pero falsos, con frecuencia relacionados con abusos ocurridos durante su infancia. Esta condición se ha estudiado y los pacientes han confesado “haber fabricado enteramente historias”. Sin embargo, el DSM-IV no reconoce el FMS, aunque el olvido de eventos traumáticos es uno de los muchos criterios diagnósticos para PTSD. El debate sobre el FMS se centra en gran parte sobre el tema del abuso infantil, en el cual las supuestas víctimas experimentarían disociación, lo cual causa represión del recuerdo traumático hasta otra etapa de la vida, cuando el recuerdo vuelve a la superficie bien sea naturalmente o con la ayuda de un profesional. Muchos defensores del FMS critican ambos métodos de recobro de recuerdos, argumentando que los terapeutas y los psiquiatras accidentalmente implantan dichos recuerdos falsos.

La Fundación para el Síndrome de Falso Recuerdo (FMSF) fue formada por un grupo de padres que habían sido acusados de abuso infantil, sus abogados y académicos que apoyaban la causa y que promueven la hipótesis del FMS y critican la validez de los recuerdos recobrados. Un miembro de la FMSF es la experta en memoria Elizabeth Loftus. La FMSF coopera con las organizaciones anti-pseudociencia CSICOP y La Sociedad de Escépticos (The Skeptics Society), las cuales consideran que los recuerdos recuperados son pseudociencia típica, pero especialmente peligrosa.

 Abuso sexual

Los falsos recuerdos han sido protagonistas en muchas investigaciones y casos judiciales, incluyendo los casos de supuesto abuso sexual.

La década de 1980 vio una ola de acusaciones de abuso infantil basadas en recuerdos recuperados, lo cual llevó a algunos de los padres acusados a la cárcel. Algunas de estas sentencias fueron revertidas en los 90s, y hay casos en los cuales los terapeutas han sido exitosamente demandados por sus otros clientes por implantarles recuerdos falsos.

Abuso satánico ritual

En los 80s, en los Estados Unidos, estalló una escalofriante ola de alegatos falsos como resultado del uso de las técnicas de recobro de recuerdos. Cientos de psicoterapeutas empezaron a enseñar que el estrés en los adultos era un signo de que la persona había sido abusada sexualmente por sus padres y vecinos. Mediante técnicas putativas para “recuperar” estos recuerdos perdidos, cientos de personas eventualmente fueron convencidas por sus terapeutas de que habían sido abusadas por sacerdotes satanistas, quienes eran su propia familia o los profesores del jardín. Este fenómeno se conoció como Abuso satánico ritual. Cientos de personas fueron sentenciadas por estos “crímenes” y puestas en la cárcel. Una re-evaluación escéptica en la década de los 90 de estas técnicas de recobro de recuerdos ha mostrado que dichos recuerdos no eran verdaderos sino creados. La mayoría de las personas sentenciadas por estos cargos han sido liberadas.

Fuente: Wikipedia

http://www.diariodeavisos.com/2012/09/26/actualidad/testimonios-pie-cojea/

El Informe Kinsey

El Informe Kinsey fue el resultado de un estudio científico publicado en dos libros, Comportamiento sexual del hombre (1948) y Comportamiento sexual de la mujer (1953), por Alfred C. Kinsey, Wardell Pomeroy y otros colaboradores. Se realizó entrevistando a más de 20 000 hombres y mujeres, con un sistema de completa confidencialidad, que respondían un cuestionario anónimo consiguiendo crear una base de datos que describían el comportamiento sexual en el ser humano, generando gran sorpresa en 1948 al sacar a la luz comportamientos que hasta entonces habían permanecido en la más estricta intimidad y de los cuales no se hablaban ni en la comunidad científica ni en la sociedad. Ayudó a desterrar mitos y evidenció que conductas que hasta entonces la mayoría consideraban marginales, o incluso inmorales, eran practicadas por un porcentaje considerable de la población, como fue el caso de la masturbación tanto femenina como masculina, la homosexualidad y bisexualidad o la temprana edad de iniciación sexual.

Lo que más repercusión ha tenido hasta la actualidad es la división en grados de la tendencia sexual, en la que entre la homosexualidad y la heterosexualidad exclusivas se establecieron una serie de grados de bisexualidad, considerados válidos para muchos investigadores hasta hoy y que fueron novedosas en el momento. En el estudio se estableció una escala de 7 grados que van desde la absoluta heterosexualidad hasta la homosexualidad completa, pasando por cinco grados de bisexualidad, donde se afirmaba además que gran parte de la población era en algún grado bisexual, indicando sus porcentajes. Se definió, por ejemplo, que el 60% de los hombres y el 33% de las mujeres habían participado al menos en una práctica homosexual desde los 16 años de edad y que al menos un tercio de los hombres había alcanzado el orgasmo en prácticas homosexuales.

Este informe provoca hasta hoy grandes controversias, sobre todo por los métodos de acceso a la información, la selección de los entrevistados y el origen de la información sobre el comportamiento sexual en niños.

Kinsey murió en 1956 a los 62 años, dejando el Kinsey Institute for Sex Research como un legado a la investigación sexual.

Partes del informe sobre la diversidad en cuanto a la orientación sexual son frecuentemente usadas para respaldar la estimación de que el 10% de la población es homosexual. En lugar de usar tres categorías (heterosexuales, bisexuales y homosexuales) se usaron seis categorías (una séptima categoría, la de asexuales fue agregada por los compañeros de Kinsey).   Los reportes establecieron que cerca del 46% de los sujetos masculinos encuestados habían “reaccionado” sexualmente ante personas de ambos sexos en el curso de sus vidas como adultos, y el 37% ha tenido al menos una experiencia/respuesta homosexual.1 También se estableció que el 11.6% de los hombres blancos encuestados, cuya edad oscilaba entre los 20 y 35 años, fueron valorados con el valor de 3 en la escala, es decir habían tenido igualmente experiencias/respuestas heterosexuales como homosexuales durante toda su vida adulta.2 Además el estudio reportó que el 10% de los hombres estadounidenses que fueron encuestados habían sido “mas o menos” exclusivamente homosexuales por al menos 3 años entre los 16 y 55 años” (es decir estuvieron en el rango 5 o 6 en la escala).3

En cuanto a la mujer, se reportó que el 7% de las mujeres solteras y el 4% de las mujeres en plan de matrimonio encuestadas, cuyas edades iban desde los 20 a 35 años fueron valoradas con el valor de 3 en la escala (tenían igualmente experiencias/respuestas heterosexuales como homosexuales) por ese periodo de sus vidas.4 Además de que del 2 al 6% de las mujeres, cuyo rango de edad iba desde los 20 a los 35 años, eran “mas o menos” exclusivamente homosexuales,5 y del 1 al 3% de las mujeres no casadas cuya edad iba desde los 20 a los 35 años tenían exclusivamente respuestas/experiencias homosexuales.   Las críticas académicas fueron hechas relacionando para probar la selección y la muestra de parcialidad en la metodología de los reportes. Los dos principales problemas citados fueron la significativa porción de muestras que venían de población penal y de prostitutos y que los sujetos que se ofrecieron para ser entrevistados sobre temas tabú, lo cual provocaba que el estudio estuviera propenso a problemas de autoselección. Ambos socavan la utilidad de la muestra en cuanto a determinar la tendencia del total de la población. En 1948, el mismo año de la publicación original, el comité de la Asosiación Estadounidense de Estadística, incluyendo a notables estadistas como John Tukey, condenó el procedimiento de muestreo. Tukey fue quizás el mas crítico, afirmando que “una muestra al azar, de tres personas hubiera sido para el Sr. Kinsey mejor que un grupo de 300 elegidas”.

Kinsey la película

Kinsey es una película estadounidense que relata parte de la vida del sexólogo Alfred Kinsey. Kinsey, con la ayuda de Wardell Pommery, realizó un informe sobre el comportamiento sexual humano, el Informe Kinsey. Su publicación provocó un gran revuelo social en la sociedad estadounidense, que vio cómo se desmitificaban muchos aspectos de la sexualidad humana.   Kinsey fue dirigida en 2004 por Bill Condon, y su reparto está encabezado por Liam Neeson, nominado al Oscar al mejor actor por su interpretación en La lista de Schindler.

El profesor Alfred Kinsey, protagonista de la historia, está siendo entrevistado sobre su historia sexual. Durante la entrevista, dos de los momentos más importantes de la vida de Kinsey son revelados al espectador como flashbacks. Aparecen dos secuencias: una de ellas en su niñez, cuando era boy scout y la otra cuando Kinsey discute con su padre sobre sus intenciones vocacionales. La escena cambia y aparece Kinsey enseñando en la Universidad de Indiana como profesor de biología especializado en la mosca de la agalla, donde la historia comienza. Kinsey se enamora de una estudiante de su clase (interpretada por Laura Linney) y se casa con ella. Ellos tienen tres hijos. Mientras tanto, en la Universidad, el profesor Kinsey, llamado afectuosamente “Prok” (Pro-fesor K-insey) por sus estudiantes graduados, se encuentra con los estudiantes en las horas posteriores a clase para ofrecer consejo sobre temas sexuales. Cuando comienza esta actividad en algunos sectores se le tacha de sucio, pero los estudiantes además de pedir consejo en ocasiones hablan sobre su vida sexual, lo que aumenta el conocimiento de Kinsey sobre el sexo.   En una fiesta de celebración de la publicación del libro de Kinsey sobre la mosca de la agalla, Kinsey se acerca al decano de los estudiantes para crear un curso sobre educación sexual. Momentáneamente, es aprobado. Kinsey comienza enseñando en un pequeño auditorio,no obstante este curso es sólo para profesores, y estudiantes graduados, mayores o casados. Kinsey continúa recabando información en entrevistas personales pero encuentra que esta información está limitada al poco número de gente que entrevistó. Esto lleva al profesor Kinsey a realizar un cuestionario a toda su clase de educación sexual, lo que le hace descubrir la gran disparidad existente entre las prácticas sexuales que realizan y la idea de la sociedad sobre este tema. Después de recibir soporte financiero de la fundación Rockefeller, Kinsey y su equipo viajaron por el país, entrevistando a sujetos para conocer su historial sexual.   Conforme el tiempo pasa el Dr. Kinsey descubre que el sexo que no implica a dos humanos de distinto sexo es más frecuente de lo que originalmente se pensaba. Por ello Kinsey creó una nueva forma de clasificar a los humanos con la escala Kinsey, que clasifica la sexualidad de las personas desde homosexuales a heterosexuales.

Fuente: Wikipedia

El Círculo de Viena

Image

El Círculo de Viena (Wiener Kreis en alemán) fue organismo científico y filosófico formado por Moritz Schlick (República Federal de Alemania) en Viena, Austria, en el año 1922 y disuelto definitivamente en 1936. Este movimiento, con el nombre original de Círculo de Viena para la concepción científica del mundo, se ocupa principalmente de la lógica de la ciencia, considerando la filosofía como una disciplina encargada de distinguir entre lo que es ciencia y lo que no, y de la elaboración de un lenguaje común a todas las ciencias.

Los miembros del círculo de Viena publicaron en 1929 su manifiesto programático, en un opúsculo titulado La visión científica del mundo.
Propusieron utilizar un lenguaje común que debía ser elaborado por la filosofía, basándose en el lenguaje de la física, por ser ésta la disciplina científica de mayores avances y la que practicaban profesionalmente muchos de los miembros del círculo. Para el Círculo de Viena la filosofía tiene la acepción de una disciplina más bien ligada a lógica y el empirismo inglés, que define lo relevante de los enunciados. La publicación en 1922 de Ludwig Wittgenstein de su Tractatus logico-philosophicus que influyó en los trabajo del Círculo y reafirmó posiciones previas en cuanto a tratar la ciencia como un conjunto de proposiciones con sentido y relevantes.
El proyecto del Círculo de Viena comenzó a difundirse a partir de los trabajos de la revista Erkenntnis dirigida por Rudolf Carnap, en la cual se publicaron los principales aportes de este movimiento. Karl Popper hizo una presentación de su obra La lógica de la investigación científica que influyó en forma importante en el Círculo. Si bien se identificó con ciertas premisas que están en falsacionismo, nunca se consideró o asoció posteriormente con el Círculo siendo un crítico de su positivismo.
El círculo de Viena se disolverá producto de la presión política y ascenso del nazismo en Austria. En 1936 Moritz Schlick sería asesinado por un estudiante Nazi, Johann Nelböck, situación justificada por la prensa alemana de la época. Tras estos acontecimientos, la mayor parte de los miembros del círculo de Viena escaparon a otros países (principalmente a Estados Unidos) donde seguirán desarrollando su filosofía: el positivismo lógico, pero ya no como un círculo, sino de manera diseminada.
En 1939 Rudolf Carnap, Otto Neurath y Charles Morris publican la Enciclopedia Internacional de la Ciencia Unificada. Si bien el empirismo lógico siguió desarrollándose por un tiempo, este volumen es considerado como el último trabajo realizado por el Círculo de Viena.

La filosofía del Círculo de Viena aboga por una concepción científica del mundo, defendiendo el empirismo de David Hume, John Locke y Ernst Mach, el método de la inducción, la búsqueda de la unificación del lenguaje de la ciencia y la refutación de la metafísica. Esta filosofía es una forma de empirismo y una forma de positivismo conocida con los nombres de positivismo lógico, neopositivismo, empirismo lógico o neoempirismo, aunque los miembros del Círculo de Viena preferían llamarlo empirismo consecuente.
El positivismo y el empirismo lógico o neoempirismo no precisaban distinción alguna, pues disponían de criterios objetivos con los que poder responder: los principios de verificación y de confirmación respectivamente. Sin embargo, tan pronto como se identifica el conocimiento con el conocimiento probado o confirmado, en cierto grado surge el escollo de tener que justificar el inductivismo como doctrina legitimadora de las inferencias. De este escollo se ven libres las concepciones instrumentalistas, que basan la aceptabilidad en criterios utilitaristas.

Miembros del Círculo de Viena

Moritz Schlick
Rudolf Carnap
Otto Neurath
Herbert Feigl
Philipp Frank
Friedrich Waismann
Hans Hahn
Hans Reichenbach
Kurt Gödel
Carl Hempel
Alfred Tarski
A. J. Ayer
Charles Morris
Felix Kaufmann
Victor Kraft
Sigmund Freud
Otto Weininger
Carl Hempel
Karl Popper

Fuente: Wikipedia

Image
Disolución del Círculo de Viena

En 1936 Schlick fue asesinado por un antiguo estudiante que era nazi, Hahn había muerto dos años antes, y casi todos los miembros del Círculo eran judíos. Esto produjo, con el advenimiento de los nazis, una diáspora que llevó a su disolución. Feigl se fue a Estados Unidos junto con Carnap, seguidos de Gödel y Ziegel; Neurath se exilió a Inglaterra; y, en 1938, las publicaciones del Círculo de Viena fueron prohibidas en Alemania. En 1939 Carnap, Neurath y Morris publicaron la Enciclopedia internacional de la ciencia unificada, que se puede considerar la última obra del Círculo de Viena.

Posteriormente, muchas de sus teorías fundamentales fueron revisadas. Incluso el propio Carnap reconocerá que el postulado de la simplicidad del Círculo de Viena provocaba «una cierta rigidez, por lo que nos vimos obligados a realizar algunas modificaciones radicales para hacer justicia al carácter abierto y a la inevitable falta de certeza en todo conocimiento fáctico». De ahí que en adelante abandone el concepto de verificabilidad sustituyéndolo por el de controlabilidad suponiendo que un enunciado es controlable cuando conocemos un método para su confirmación.

Es paradójico observar que, mientras estaban influidos por el Tractatus logico-philosophicus del primer Wittgenstein, este (que reemprende su labor filosófica en Cambridge) analizaba el lenguaje desde la perspectiva de los juegos lingüísticos tal y como aparece en su libro Investigaciones filosóficas. Según Reale y Antiseri, la filosofía del «segundo» Wittgenstein expone que el lenguaje es «mucho más rico, más articulado y más sensato en sus manifestaciones no científicas de lo que jamás hayan imaginado los neopositivistas». También debió afrontar el Círculo de Viena las críticas de Popper, que consideraba, desde los presupuestos falsacionistas, que el criterio de verificabilidad se contradecía a sí mismo y era incapaz de encontrar leyes universales.

Fuente: http://www.kalipedia.com/filosofia/tema/filosofia-sigloXX/disolucion-circulo-viena.html?x=20070718klpprcfil_447.Kes&ap=2

%d bloggers like this: