Category: Articulo


Big Data

THE BLACKLIST -- Season:Pilot -- Pictured: James Spader as

THE BLACKLIST — Season:Pilot — Pictured: James Spader as “Red” Raymond Reddington — (Photo by: Patrick Ecclesine/NBC)

A la gente le encanta condenar al gran hermano a la NSA y que el gobierno escuche a escondidas su vida privada, sin embargo todos ellos se conectan voluntariamente
a internet y entregan los detalles mas íntimos de sus vidas a Big Data.

A la mayoria no le importa que google conozca su historial de búsqueda.

Pero saben más que eso, conocen tus habitos, los bancos que usas,las pastillas que tomas los hombres o las mujeres con quien te acuestas
cada información vale algo para alguien…..

Raymond Reddington
Black List

El Big Data o Datos Masivos se refiere a sistemas informáticos basados en la acumulación a gran escala de datos y de los procedimientos usados para identificar patrones recurrentes dentro de esos datos. En la literatura científica en español con frecuencia se usa directamente el término en inglés Big Data (de big [amount of] data), tal como aparece en el ensayo seminal de Viktor Schönberger Big data: La revolución de los datos masivos.

La disciplina dedicada a los datos masivos se enmarca en el sector de las tecnologías de la información y la comunicación. Esta disciplina se ocupa de todas las actividades relacionadas con los sistemas que manipulan grandes conjuntos de datos. Las dificultades más habituales vinculadas a la gestión de estas cantidades de datos se centran en la captura, el almacenamiento,2 búsqueda, compartición, análisis,3 y visualización. La tendencia a manipular ingentes cantidades de datos se debe a la necesidad en muchos casos de incluir los datos relacionados del análisis en un gran conjunto de datos, como los análisis de negocio, publicitarios, los datos de enfermedades infecciosas, el espionaje y seguimiento a la población o la lucha contra el crimen organizado.4

El límite superior de procesamiento se ha ido desplazando a lo largo de los años. De esta forma, los límites fijados en 2008 rondaban el orden de petabytes a zettabytes de datos.5 Los científicos con cierta regularidad encuentran limitaciones debido a la gran cantidad de datos en ciertas áreas, tales como la meteorología, la genómica,6 la conectómica, las complejas simulaciones de procesos físicos7 y las investigaciones relacionadas con los procesos biológicos y ambientales,8 Las limitaciones también afectan a los motores de búsqueda en internet, a los sistemas finanzas y a la informática de negocios. Los data sets crecen en volumen debido en parte a la introducción de información ubicua procedente de los sensores inalámbricos y los dispositivos móviles (por ejemplo las VANETs), del constante crecimiento de los históricos de aplicaciones (por ejemplo de los logs), cámaras (sistemas de teledetección), micrófonos, lectores de radio-frequency identification.9 10 La capacidad tecnológica per-cápita a nivel
mundial para almacenar datos se dobla aproximadamente cada cuarenta meses desde los años ochenta.11 Se estima que en 2012 cada día fueron creados cerca de 2,5 trillones de bytes de datos (del inglés quintillion, 2.5×1018).

Datos masivos es un término que hace referencia a una cantidad de datos tal que supera la capacidad del software habitual para ser capturados, gestionados y procesados en un tiempo razonable. El volumen de los datos masivos crece constantemente. En 2012 se estimaba su tamaño de entre una docena de terabytes hasta varios petabytes de datos en un único conjunto de datos. En la metodología MIKE2.0 dedicada a investigar temas relacionados con la gestión de información, definen big data en términos de permutaciones útiles, complejidad y dificultad para borrar registros individuales.

En 2001, en un informe de investigación que se fundamentaba en congresos y presentaciones relacionadas,13 el analista Doug Laney del META Group (ahora Gartner) definía el crecimiento constante de datos como una oportunidad y un reto para investigar en el volumen, la velocidad y la variedad. Gartner continúa usando datos masivos como referencia.14 Además, grandes proveedores del mercado de datos masivos están desarrollando soluciones para atender las demandas más críticas de cómo procesar tal cantidad de datos, como MapR, Cyttek Group y Cloudera.

Existen muchísimas herramientas para tratar con Big Data. Nombres como Hadoop, NoSQL, Cassandra, Business Intelligence, Machine Learning, MapReduce… son sólo algunos de los más conocidos. Ellos tratan con algunos de los tres tipos de Big Data:

  • Datos estructurados (Structured Data): Datos que tienen bien definidos su longitud y su formato, como las fechas, los números o las cadenas de caracteres. Se almacenan en tablas. Un ejemplo son las bases de datos relacionales y las hojas de cálculo.
  • Datos no estructurados (Unstructured Data): Datos en el formato tal y como fueron recolectados, carecen de un formato específico. No se pueden almacenar dentro de una tabla ya que no se puede desgranar su información a tipos básicos de datos. Algunos ejemplos son los PDF, documentos multimedia, e-mails o documentos de texto.
  • Datos semiestructurados (Semistructured Data): Datos que no se limitan a campos determinados, pero que contiene marcadores para separar los diferentes elementos. Es una información poco regular como para ser gestionada de una forma estándar. Estos datos poseen sus propios metadatos semiestructurados16 que describen los objetos y las relaciones entre ellos, y pueden acabar siendo aceptados por convención. Un ejemplo es el HTML, el XML o el JSON.

¿De dónde provienen todos estos datos? Los fabricamos directa e indirectamente segundo tras segundo. Un iPhone hoy en día tiene más capacidad de computación que la NASA cuando el hombre llegó a la luna17 por lo que la cantidad de datos generados por persona y unidad de tiempo es inmensa. Catalogamos la procedencia de los datos según las siguientes categorías:18

Generados por las personas: Enviar correos electrónicos por e-mail o mensajes por WhatsApp, postear en Facebook, tuitear contenidos o responder a una encuesta por la calle son algunas acciones cuotidianas que crean nuevos datos y metadatos que pueden ser analizados. Se estima que cada minuto al día se envían más de 200 millones de e-mails, se comparten más de 700.000 piezas de contenido en Facebook, se realizan dos millones de búsquedas en Google o se editan 48 horas de vídeo en YouTube.19 Por otro lado, las trazas de utilización en un sistema ERP, incluir registros en una base de datos o introducir información en una hoja de cálculo son otras formas de generar estos datos.
Transacciones de datos: La facturación, las llamadas o las transacción entre cuentas generan información que tratada pueden ser datos relevantes. Un ejemplo más claro lo encontraremos en las transacciones bancarias: lo que el usuario conoce como un ingreso de X euros, la computación lo interpretará como una acción llevada a cabo en una fecha y momento determinado, en un lugar concreto, entre unos usuarios registrados, y más metadatos.
E-marketing y web: Generamos una gran cantidad de datos cuando navegamos por internet. Con la web 2.0 se ha roto el paradigma webmaster-contenido-lector y los mismos usuarios se convierten en creadores de contenido gracias a su interacción con el sitio. Existen muchas herramientas de tracking utilizadas en su mayoría con fines de marketing y análisis de negocio. Los movimientos de ratón quedan grabados en mapas de calor y queda registro de cuánto pasamos en cada página y cuándo las visitamos.
Machine to Machine (M2M): Son las tecnologías que comparten datos con dispositivos: medidores, sensores de temperatura, de luz, de altura, de presión, de sonido… que transforman las magnitudes físicas o químicas y las convierten en datos. Existen desde hace décadas, pero la llegada de las comunicaciones inalámbricas (Wi-Fi, Bluetooth, RFID…) ha revolucionado el mundo de los sensores. Algunos ejemplos son los GPS en la automoción o los sensores de signos vitales en la medicina.
Biométrica: Son el conjunto de datos que provienen de la seguridad, defensa y servicios de inteligencia.20 Son cantidades de datos generados por lectores biométricos como escáneres de retina, escáneres de huellas digitales, o lectores de cadenas de ADN. El propósito de estos datos es proporcionar mecanismos de seguridad y suelen estar custodiadas por los ministerios de defensa y departamentos de inteligencia. Un ejemplo de aplicación es el cruce de ADN entre una muestra de un crimen y una muestra en nuestra base de datos.

Fuente: Wikipedia

El experimento del pequeño Albert

El pequeño Albert

El experimento del Pequeño Albert es una demostración empírica del procedimiento de condicionamiento clásico realizada por John B. Watson y su colaboradora Rosalie Rayner, en la Universidad Johns Hopkins.

Según describen Watson y Rayner (1920), los objetivos de este experimento eran:

¿Puede condicionarse a un niño para que tema a un animal que aparece simultáneamente con un ruido fuerte?
¿Se transferirá tal miedo a otros animales u objetos inanimados?
¿Cuánto persistirá tal miedo? No lo sabremos hasta finalizar el experimento con el pequeño Albert.

Se lo examinó para determinar si existía en él un miedo previo a los objetos que se le iban a presentar (animales con pelo), examen que fue negativo. Sí se identificó un miedo a los sonidos fuertes (como el producido al golpear una lámina metálica con un martillo fuertemente).

El experimento inició cuando Albert tenía 11 meses y tres días. El diseño era presentarle al pequeño Albert un ratón de color blanco y al mismo tiempo un ruido fuerte (golpeando una barra detrás de la cabeza del niño). Después de varios ensayos, el niño sollozó ante la presencia de una rata, y luego mostró generalización del estímulo ante bloques, un perro, lana, un abrigo, etc.

EI (ruido)  ———–> RI (llanto)

EC (objeto blanco) —-> RC (llanto)
littlealbertDesgraciadamente, el experimento no alcanzó la última fase, es decir, el descondicionamiento, ya que Albert fue sacado de la unidad hospitalaria en que se encontraba antes de su conclusión. Los ensayos habían durado 31 días. Watson había planeado desensibilizar al niño relacionando los objetos que provocaban temor con estímulos agradables. Por ejemplo, la rata blanca con la leche caliente, que los bebés consideran una experiencia amorosa y relajante.

Se dice que el pequeño Albert quedó condicionado respecto a las ratas y los demás objetos que le presentaron durante toda su vida, pero lo cierto es que no se sabe con certeza qué sucedió.

Afortunadamente, en la actualidad no es posible realizar este tipo de experimentos. Casos como el del pequeño Albert abrieron un debate sobre la ética a la hora de experimentar con seres humanos contribuyendo al establecimiento de necesarios límites.

Los conductistas sostienen, con cierto humor, que si Albert hubiese acudido a la consulta de un psicoanalista para superar su posible temor hacia los abrigos de pieles se le convencería de que en su primera infancia tuvo un trauma sexual con su madre.

Para el freudiano, el sexo o el amor son los principales sentimientos de los que surgen las respuestas condicionadas que, más tarde, limitan y distorsionan la personalidad. Sin embargo, en este caso, como hemos visto, el trastorno emocional del adulto no fue determinado por un problema sexual. No obstante, también el conductismo ha sido objeto de crítica por otros psicólogos al ser una escuela que no toma en cuenta cómo se siente el individuo estudiado o qué piensa; se centra esencialmente en qué hace, cuáles son sus reacciones y cómo se puede condicionar.

Fuente: Wikipedia

Video: El pequeño Albert experimento

elojoquetodolove2

Científicos israelíes ponen en marcha la corteza visual dormida con un innovador método de sustitución sensorial.

Investigadores de la Universidad Hebrea de Jerusalén han demostrado que las personas ciegas pueden “ver” y describir objetos, e incluso identificar letras y palabras, usando un sistema que traduce imágenes en sonido. El método permitió que, en tan solo 70 horas de entrenamiento, los invidentes alcanzasen una agudeza visual que, aunque no implicó la activación del sistema oftalmológico del cuerpo, sí activó la red de identificación visual del cerebro. Por Yaiza Martínez.

Se suele pensar que si la corteza visual del cerebro se ve privada de la información visual en la más tierna infancia, posteriormente no podrá desarrollar su especialización funcional y, por tanto, la restauración de la vista en un futuro resultará casi imposible.

Sin embargo, científicos de la Universidad Hebrea de Jerusalén han constatado, usando un equipo fotográfico y sonoro especializado, que las personas ciegas en realidad sí pueden “ver” y describir objetos, e incluso identificar letras y palabras.

El hallazgo ha sido posible gracias a un estudio realizado por un equipo de investigadores dirigido por Amir Amedi, del Edmond and Lily Safra Center for Brain Sciences y del Institute for Medical Research Israel-Canada (IMRIC) de la Universidad Hebrea, en el que se aplicó un nuevo paradigma de entrenamiento para ciegos, basado en dispositivos sensoriales de sustitución (SSD).

Los SSD son soportes sensoriales no invasivos que proporcionan información visual a los invidentes, a través de los sentidos que estos sí tienen. Por ejemplo, un usuario con un SSD visual-auditivo llevará, en un entorno clínico o cotidiano, una cámara en miniatura conectada a un pequeño ordenador (o teléfono inteligente), así como auriculares estéreo.

Este sistema hace que las imágenes se vuelven “sonoras”, gracias a un algoritmo de predicción, lo que permite al usuario escuchar y luego interpretar la información visual procedente de la cámara.

Desarrollo de una gran agudeza visual

Las personas ciegas que participaron en este estudio alcanzaron un nivel de agudeza visual que supera a la establecido por los criterios para la ceguera de la Organización Mundial de la Salud (OMS), informa la Universidad Hebrea de Jerusalén a través de Alphagalileo.

La capacidad “visual” desarrollada por estos individuos, aunque no es convencional en el sentido de que no implicó la activación del sistema oftalmológico del cuerpo, realmente activó la red de identificación visual del cerebro.

Las pruebas realizadas con estas personas demostraron que, tras 70 horas de entrenamiento con el método desarrollado en el laboratorio de Amedi, estas pudieron utilizar con facilidad los SSD para clasificar imágenes en categorías de objetos (rostros, casas, formas del cuerpo, objetos y texturas cotidianas).

Asimismo, los participantes también fueron capaces de establecer la localización de personas, identificar expresiones faciales e, incluso, leer letras y palabras. Los resultados obtenidos han aparecido publicados en el último número de la revista Neuron.

¿Qué sucede en el cerebro cuando se aprende a “ver”?

Por otra parte, los investigadores de la Universidad Hebrea analizaron en este trabajo lo que sucede en el cerebro cuando los ciegos aprenden a ver a partir de sonidos. En concreto, los científicos evaluaron la activación de la corteza visual a partir de la adquisición de agudeza visual, puesto que se suponía que la corteza visual permanece inactiva en ciegos.

Para realizar estas observaciones, Amedi y su equipo utilizaron la tecnología de registro de imágenes por resonancia magnética funcional (fMRI), un procedimiento clínico y de investigación que permite mostrar en imágenes las regiones cerebrales que ejecutan una tarea determinada.

Con la fMRI, los investigadores pudieron medir la actividad neuronal de las personas ciegas de nacimiento que “veían”, gracias a los SSD, imágenes en alta resolución de letras, caras, casas, objetos cotidianos y formas corporales.

Los resultados de estos análisis fueron sorprendentes: se constató que, gracias a los sonidos, no solo se activaba la corteza visual de los invidentes participantes en el estudio, sino que, además, los cerebros de estos mostraban selectividad para aquellas categorías visuales con que clasifican imágenes los cerebros de personas que sí ven.

Además, se constató que una parte específica del cerebro, conocida como el ‘Área de la Forma de Palabra Visual’ (AFPV) – descubierta por vez primera en personas videntes por Laurent Cohen y Stanislas Dehaene del Hospital Pitié-Salpêtrière del INSERM-CEA de Francia- también funcionaba en las personas privadas de vista del estudio.

Se sabe que la AFPV tiene, en personas no ciegas, un papel en la lectura, y que esta área se activa al ver y leer letras, más que ante cualquier otro objeto visual. En el caso de los ciegos analizados, los científicos comprobaron que, después de sólo unas decenas de horas de capacitación con los SSD, estos presentaban una mayor activación de la AFPV ante las letras que para cualesquiera otras de las categorías visuales probadas.

De hecho, la AFPV resultó ser tan plástica y proclive a cambiar, que mostró una actividad incrementada para las letras de los SSD tras menos de dos horas de entrenamiento, en uno de los participantes en el estudio.

“Despertar” la visión en el cerebro

Según Amedi, esto demuestra que “el cerebro adulto es más flexible que lo que pensábamos”. Esta y otras investigaciones recientes han demostrado que múltiples áreas del cerebro no son específicas de un sentido determinado (la visión, el oído o el tacto), sino que, además, pueden compartir varias modalidades.

Todo ello sugiere que, en los ciegos, las áreas cerebrales podrían ser “despertadas” para procesar propiedades y tareas visuales, años después de que estos hayan perdido la vista, e incluso aunque hayan sido ciegos toda la vida, usando las tecnologías y los métodos de entrenamiento adecuados, afirma Amedi.

Los hallazgos realizados también proporcionan la esperanza de que la reintroducción de señales en los centros visuales del cerebro de personas ciegas pueda restaurar la visión de estas. En este sentido, los SSD podrían resultar útiles en la rehabilitación visual del cerebro.

Los SSD podrían usarse, por último, como intérpretes sensoriales que indiquen a los ciegos el significado de señales visuales obtenidas por dispositivos externos, como unos ojos biónicos, concluye Amedi.

Historia de la sustitución sensorial

La sustitución sensorial fue introducida por vez primera en los años 60 por el neurocientífico americano Paul Bach-y-Rita, especializado en la plasticidad cerebral.

Bach y Rita utilizó esta técnica entonces como medio para aprovechar una modalidad sensorial, sobre todo el tacto, para la obtención de información del entorno, de manera que esta pudiera ser usada por otra modalidad sensorial, principalmente la vista.

El primer SSD fue creado por este científico para individuos con ceguera congénita, como herramienta de fomento de la plasticidad cerebral. Desde ese momento, en la sustitución sensorial se han basado muchas investigaciones sobre neurociencia cognitiva y percepción. Además, este método ha contribuido al conocimiento de la función cerebral, la cognición humana y la rehabilitación.

http://m.tendencias21.net/La-activacion-del-ojo-de-la-mente-con-sonidos-permite-a-los-ciegos-interpretar-imagenes_a14147.html

Falsos recuerdos

Nuestra memoria tiene tendencia a rellenar los huecos con tal de que el escenario tenga sentido, de tal forma que podemos llegar a pensar que el recuerdo es un reflejo veridico de un suceso cuando en realidad puede estar distorsionado hasta hacerlo irreconocible.
 

Un recuerdo falso es un recuerdo de un evento que no ocurrió o una distorsión de un evento que ocurrió, según se puede saber por hechos corroborables externamente.
Se sabe que la memoria sólo es confiable hasta cierto punto, bien sea por no recordar cosas que se saben, o por recordarlas incorrectamente. La identificación por parte de testigos en casos criminales es otro ejemplo de memoria no fiable, y recientemente se han producido cambios en el procedimiento penal en algunos estados y condados de los Estados Unidos. De las primeras 130 exoneraciones por ADN, 111, es decir, casi el 78%, fueron casos de identidad confundida. La continuidad de la memoria no es garantía de verdad, y la alteración de la memoria no es garantía de falsedad.

Hay una controversia importante respecto de los recuerdos falsos. Nuestro sentido de identidad, de quiénes somos y qué hemos hecho, está vinculado con nuestros recuerdos, y puede ser inquietante que eso sea cuestionado. La amnesia, la enfermedad de Alzheimer y el trastorno por estrés postraumático son ejemplos de pérdida dramática de los recuerdos, con efectos devastadores para el enfermo y para quienes lo rodean. Los recuerdos falsos también pueden ser traumáticos para cualquiera que esté involucrado, especialmente si no hay acuerdo en que el recuerdo sea falso. Las consecuencias se amplifican cuando el recuerdo en sí es chocante, como en el caso de los recuerdos de haber sufrido abuso en la infancia que salen a flote en la adultez.

Por lo tanto, en esos casos se hace imperativo no confiar solamente en la memoria, sino insistir en evidencia que pueda corroborar el hecho. Sin embargo, dicha evidencia, que puede apoyar o contradecir el recuerdo, puede no estar disponible o puede no ser definitiva. Dado que los recuerdos falsos pueden parecer tan vívidos y reales como cualquier recuerdo verdadero, se debe ir más allá para entender las formas comunes como aparecen, como errores en las filas de identificación o mala práctica terapéutica, y evitar esos errores. Por ejemplo, los estudios han mostrado que los recuerdos falsos pueden surgir a partir del efecto de información incorrecta. 

Las investigaciones sugieren que la memoria involucra reconstrucción, no solamente recuerdo. Por ejemplo, un niño puede recordar a su padre de pie al lado de la mesa con una expresión de ira y con un cuchillo grande y afilado, vociferando frente a la madre, quien gritaba y parecía muy asustada. Este recuerdo podría ser parcialmente preciso, pero en realidad el niño está recordando fragmentos de una fiesta de Acción de Gracias: el padre estaba cortando el pavo y cantando en voz alta, y la expresión de la mamá se debe a que le está gritando al perro para que se quede quieto. Posteriormente, ese fragmento de recuerdo puede hacerse interpretar “correctamente” como que “papá era violento y mamá siempre tenía miedo de él”.

Muchos defensores de los recuerdos recuperados enfatizan sobre la importancia de distinguir entre los recuerdos comunes y los traumáticos. Los estudios han mostrado que los recuerdos pueden ser implantados, pero no hay estudios sobre recuerdos traumáticos implantados y sus efectos relacionados, como el trastorno por estrés postraumático y el trastorno de identidad disociativo, puesto que tales estudios no serían éticos.

Síndrome de Falso Recuerdo o Falsa Memoria (FMS): este es el término utilizado para la hipótesis que describe un estado mental en el cual un individuo tiene un alto número de recuerdos muy vívidos pero falsos, con frecuencia relacionados con abusos ocurridos durante su infancia. Esta condición se ha estudiado y los pacientes han confesado “haber fabricado enteramente historias”. Sin embargo, el DSM-IV no reconoce el FMS, aunque el olvido de eventos traumáticos es uno de los muchos criterios diagnósticos para PTSD. El debate sobre el FMS se centra en gran parte sobre el tema del abuso infantil, en el cual las supuestas víctimas experimentarían disociación, lo cual causa represión del recuerdo traumático hasta otra etapa de la vida, cuando el recuerdo vuelve a la superficie bien sea naturalmente o con la ayuda de un profesional. Muchos defensores del FMS critican ambos métodos de recobro de recuerdos, argumentando que los terapeutas y los psiquiatras accidentalmente implantan dichos recuerdos falsos.

La Fundación para el Síndrome de Falso Recuerdo (FMSF) fue formada por un grupo de padres que habían sido acusados de abuso infantil, sus abogados y académicos que apoyaban la causa y que promueven la hipótesis del FMS y critican la validez de los recuerdos recobrados. Un miembro de la FMSF es la experta en memoria Elizabeth Loftus. La FMSF coopera con las organizaciones anti-pseudociencia CSICOP y La Sociedad de Escépticos (The Skeptics Society), las cuales consideran que los recuerdos recuperados son pseudociencia típica, pero especialmente peligrosa.

 Abuso sexual

Los falsos recuerdos han sido protagonistas en muchas investigaciones y casos judiciales, incluyendo los casos de supuesto abuso sexual.

La década de 1980 vio una ola de acusaciones de abuso infantil basadas en recuerdos recuperados, lo cual llevó a algunos de los padres acusados a la cárcel. Algunas de estas sentencias fueron revertidas en los 90s, y hay casos en los cuales los terapeutas han sido exitosamente demandados por sus otros clientes por implantarles recuerdos falsos.

Abuso satánico ritual

En los 80s, en los Estados Unidos, estalló una escalofriante ola de alegatos falsos como resultado del uso de las técnicas de recobro de recuerdos. Cientos de psicoterapeutas empezaron a enseñar que el estrés en los adultos era un signo de que la persona había sido abusada sexualmente por sus padres y vecinos. Mediante técnicas putativas para “recuperar” estos recuerdos perdidos, cientos de personas eventualmente fueron convencidas por sus terapeutas de que habían sido abusadas por sacerdotes satanistas, quienes eran su propia familia o los profesores del jardín. Este fenómeno se conoció como Abuso satánico ritual. Cientos de personas fueron sentenciadas por estos “crímenes” y puestas en la cárcel. Una re-evaluación escéptica en la década de los 90 de estas técnicas de recobro de recuerdos ha mostrado que dichos recuerdos no eran verdaderos sino creados. La mayoría de las personas sentenciadas por estos cargos han sido liberadas.

Fuente: Wikipedia

http://www.diariodeavisos.com/2012/09/26/actualidad/testimonios-pie-cojea/

El Informe Kinsey

El Informe Kinsey fue el resultado de un estudio científico publicado en dos libros, Comportamiento sexual del hombre (1948) y Comportamiento sexual de la mujer (1953), por Alfred C. Kinsey, Wardell Pomeroy y otros colaboradores. Se realizó entrevistando a más de 20 000 hombres y mujeres, con un sistema de completa confidencialidad, que respondían un cuestionario anónimo consiguiendo crear una base de datos que describían el comportamiento sexual en el ser humano, generando gran sorpresa en 1948 al sacar a la luz comportamientos que hasta entonces habían permanecido en la más estricta intimidad y de los cuales no se hablaban ni en la comunidad científica ni en la sociedad. Ayudó a desterrar mitos y evidenció que conductas que hasta entonces la mayoría consideraban marginales, o incluso inmorales, eran practicadas por un porcentaje considerable de la población, como fue el caso de la masturbación tanto femenina como masculina, la homosexualidad y bisexualidad o la temprana edad de iniciación sexual.

Lo que más repercusión ha tenido hasta la actualidad es la división en grados de la tendencia sexual, en la que entre la homosexualidad y la heterosexualidad exclusivas se establecieron una serie de grados de bisexualidad, considerados válidos para muchos investigadores hasta hoy y que fueron novedosas en el momento. En el estudio se estableció una escala de 7 grados que van desde la absoluta heterosexualidad hasta la homosexualidad completa, pasando por cinco grados de bisexualidad, donde se afirmaba además que gran parte de la población era en algún grado bisexual, indicando sus porcentajes. Se definió, por ejemplo, que el 60% de los hombres y el 33% de las mujeres habían participado al menos en una práctica homosexual desde los 16 años de edad y que al menos un tercio de los hombres había alcanzado el orgasmo en prácticas homosexuales.

Este informe provoca hasta hoy grandes controversias, sobre todo por los métodos de acceso a la información, la selección de los entrevistados y el origen de la información sobre el comportamiento sexual en niños.

Kinsey murió en 1956 a los 62 años, dejando el Kinsey Institute for Sex Research como un legado a la investigación sexual.

Partes del informe sobre la diversidad en cuanto a la orientación sexual son frecuentemente usadas para respaldar la estimación de que el 10% de la población es homosexual. En lugar de usar tres categorías (heterosexuales, bisexuales y homosexuales) se usaron seis categorías (una séptima categoría, la de asexuales fue agregada por los compañeros de Kinsey).   Los reportes establecieron que cerca del 46% de los sujetos masculinos encuestados habían “reaccionado” sexualmente ante personas de ambos sexos en el curso de sus vidas como adultos, y el 37% ha tenido al menos una experiencia/respuesta homosexual.1 También se estableció que el 11.6% de los hombres blancos encuestados, cuya edad oscilaba entre los 20 y 35 años, fueron valorados con el valor de 3 en la escala, es decir habían tenido igualmente experiencias/respuestas heterosexuales como homosexuales durante toda su vida adulta.2 Además el estudio reportó que el 10% de los hombres estadounidenses que fueron encuestados habían sido “mas o menos” exclusivamente homosexuales por al menos 3 años entre los 16 y 55 años” (es decir estuvieron en el rango 5 o 6 en la escala).3

En cuanto a la mujer, se reportó que el 7% de las mujeres solteras y el 4% de las mujeres en plan de matrimonio encuestadas, cuyas edades iban desde los 20 a 35 años fueron valoradas con el valor de 3 en la escala (tenían igualmente experiencias/respuestas heterosexuales como homosexuales) por ese periodo de sus vidas.4 Además de que del 2 al 6% de las mujeres, cuyo rango de edad iba desde los 20 a los 35 años, eran “mas o menos” exclusivamente homosexuales,5 y del 1 al 3% de las mujeres no casadas cuya edad iba desde los 20 a los 35 años tenían exclusivamente respuestas/experiencias homosexuales.   Las críticas académicas fueron hechas relacionando para probar la selección y la muestra de parcialidad en la metodología de los reportes. Los dos principales problemas citados fueron la significativa porción de muestras que venían de población penal y de prostitutos y que los sujetos que se ofrecieron para ser entrevistados sobre temas tabú, lo cual provocaba que el estudio estuviera propenso a problemas de autoselección. Ambos socavan la utilidad de la muestra en cuanto a determinar la tendencia del total de la población. En 1948, el mismo año de la publicación original, el comité de la Asosiación Estadounidense de Estadística, incluyendo a notables estadistas como John Tukey, condenó el procedimiento de muestreo. Tukey fue quizás el mas crítico, afirmando que “una muestra al azar, de tres personas hubiera sido para el Sr. Kinsey mejor que un grupo de 300 elegidas”.

Kinsey la película

Kinsey es una película estadounidense que relata parte de la vida del sexólogo Alfred Kinsey. Kinsey, con la ayuda de Wardell Pommery, realizó un informe sobre el comportamiento sexual humano, el Informe Kinsey. Su publicación provocó un gran revuelo social en la sociedad estadounidense, que vio cómo se desmitificaban muchos aspectos de la sexualidad humana.   Kinsey fue dirigida en 2004 por Bill Condon, y su reparto está encabezado por Liam Neeson, nominado al Oscar al mejor actor por su interpretación en La lista de Schindler.

El profesor Alfred Kinsey, protagonista de la historia, está siendo entrevistado sobre su historia sexual. Durante la entrevista, dos de los momentos más importantes de la vida de Kinsey son revelados al espectador como flashbacks. Aparecen dos secuencias: una de ellas en su niñez, cuando era boy scout y la otra cuando Kinsey discute con su padre sobre sus intenciones vocacionales. La escena cambia y aparece Kinsey enseñando en la Universidad de Indiana como profesor de biología especializado en la mosca de la agalla, donde la historia comienza. Kinsey se enamora de una estudiante de su clase (interpretada por Laura Linney) y se casa con ella. Ellos tienen tres hijos. Mientras tanto, en la Universidad, el profesor Kinsey, llamado afectuosamente “Prok” (Pro-fesor K-insey) por sus estudiantes graduados, se encuentra con los estudiantes en las horas posteriores a clase para ofrecer consejo sobre temas sexuales. Cuando comienza esta actividad en algunos sectores se le tacha de sucio, pero los estudiantes además de pedir consejo en ocasiones hablan sobre su vida sexual, lo que aumenta el conocimiento de Kinsey sobre el sexo.   En una fiesta de celebración de la publicación del libro de Kinsey sobre la mosca de la agalla, Kinsey se acerca al decano de los estudiantes para crear un curso sobre educación sexual. Momentáneamente, es aprobado. Kinsey comienza enseñando en un pequeño auditorio,no obstante este curso es sólo para profesores, y estudiantes graduados, mayores o casados. Kinsey continúa recabando información en entrevistas personales pero encuentra que esta información está limitada al poco número de gente que entrevistó. Esto lleva al profesor Kinsey a realizar un cuestionario a toda su clase de educación sexual, lo que le hace descubrir la gran disparidad existente entre las prácticas sexuales que realizan y la idea de la sociedad sobre este tema. Después de recibir soporte financiero de la fundación Rockefeller, Kinsey y su equipo viajaron por el país, entrevistando a sujetos para conocer su historial sexual.   Conforme el tiempo pasa el Dr. Kinsey descubre que el sexo que no implica a dos humanos de distinto sexo es más frecuente de lo que originalmente se pensaba. Por ello Kinsey creó una nueva forma de clasificar a los humanos con la escala Kinsey, que clasifica la sexualidad de las personas desde homosexuales a heterosexuales.

Fuente: Wikipedia

El Club de Roma

El Club de Roma (en inglés Club of Rome) es una ONG. Fue fundada en el año 1968 en Roma por un pequeño grupo de científicos, políticos y personas. Sus miembros están “preocupados” por mejorar el futuro del mundo a largo plazo de manera interdisciplinar y holística.

El Club de Roma encargó el conocido informe Los límites al crecimiento (en inglés The Limits to Growth) encargado al MIT y publicado en 1972, poco antes de la primera crisis del petróleo y que ha tenido varias actualizaciones. La autora principal de dicho informe, en el que colaboraron 17 profesionales, fue Donella Meadows, biofísica y científica ambiental, especializada en dinámica de sistemas.

Se considera al Club de Roma como una de las instituciones paradigmáticas del neomaltusianismo ya que desde la segunda guerra mundial -tanto en la época de la explosión demográfica como durante la guerra fría y el desarrollo de políticas poblacionales geoestratégicas por Estados Unidos-, se consideraba un problema grave el crecimiento de la población mundial de los países comunistas -URSS y China-, de sus satélites y por tanto se establecía la necesidad de frenarlo.

Historia

En abril de 1968 se reunió en Roma un grupo pequeño de científicos, políticos, que provenían de países distintos, invitados por el italiano Aurelio Peccei y el escocés Alexander King, para hablar de los cambios que se estaban produciendo en el planeta por consecuencia de acciones humanas.1 Dos años más tarde el club de Roma estaría creado y legalizado bajo legislación suiza.

Treinta años más tarde, el Club de Roma contará entre sus filas con más de 100 “especialistas” de 52 países, habrá publicado más de 21 informes de “sumo interés” ambiental y mantendrá una posición importante en el ámbito ambiental, reconocida internacionalmente. Es necesario destacar que después de la publicación del Informe sobre los límites del desarrollo por Donella Meadows en 1972, se desató el inicio de un movimiento que sería conocido como ecología política y otras corrientes político-filosóficas derivadas tales como el ecofeminismo o el ambientalismo.

El nuevo informe del Club of Rome titulado “2052: Una proyección para los próximos 40 años” sobre las posibilidades de mantener el aumento de temperatura por debajo de los 2° C al establecer que “Las concentraciones de CO2 en la atmósfera van a seguir creciendo y causaran un aumento de 2° centígrados en el año 2052″. Es importante destacar que el informe original “The Limits of Growth” de 1972 fue un compendio de predicciones alarmistas tendientes a la implementación de políticas anti-desarrollistas, cuya falsedad fue demostrada por el paso de los años; y que el nuevo informe “2052: Una proyección para los próximos 40 años” sigue la misma línea, pero con escenarios de desastres nuevos y actualizados, ante la imposibilidad de sostener las falacias de 1972.

Objetivos

El Club de Roma publica regularmente diversos proyectos e informes de temas de tanto interés como:
deterioro del medio ambiente físico
crisis de las instituciones
burocratización
enajenación de la juventud
violencia
educación inadecuada,
brecha creciente entre países pobres e industrializados
crecimiento urbano incontrolado
inseguridad en el empleo
satisfacción decreciente obtenida en el trabajo,
impugnación de los valores de la sociedad,
indiferencia ante la ley y el orden,
inflación y disrupción monetaria

Fuente: Wikipedia

Liga del club de roma: http://www.clubofrome.org/

Cápitulo en español del Club de Roma: http://www.clubderoma.net/

Index librorum prohibitorum

El Index librorum prohibitorum et expurgatorum, en español “Índice de libros prohibidos”, también llamado Index expurgatorius, es una lista de aquellas publicaciones que la Iglesia Católica catalogó como libros perniciosos para la fe; además establecía, en su primera parte, las normas de la iglesia con respecto a la censura de los libros. La última edición data de 1948 y, aunque se siguieron incorporando títulos hasta 1961, una provisión de 1966 decretó que no se siguiera renovando.

Historia

Fue creado en 1559 por la Sagrada Congregación de la Inquisición de la Iglesia Católica Romana (posteriormente llamada la Congregación para la Doctrina de la Fe). El Index contenía nombres de autores cuyas obras estaban prohibidas en su totalidad, obras aisladas de otros autores o anónimas y también un detallado repertorio de los capítulos, páginas o líneas que debían ser cortados o tachados. Esta labor correspondía a los bibliotecarios, que debían ocuparse de ellas antes de dejar los libros en manos de los lectores. Por ejemplo, en la edición de 1632 (página 63) se indica que en el Dioscórides de Andrés Laguna, un libro de Materia medica, debe tacharse la frase «siémbranse con maldiciones las Albahacas y, según Plinio, crecen muy viciosas con ellas» («viciosas» alude aquí a vigorosas). En la misma página se explica que frases como la anterior deben borrarse por encontrarse en lengua vulgar, accesible pues al vulgo, pero que no lo necesitarían si estuvieran en latín o griego. Los autores contemporáneos a la decisión censora podían elegir omitir ellos mismos en sucesivas ediciones los párrafos censurados. Así Cervantes tuvo que suprimir del Quijote, entre otras la frase «…las obras de caridad que se hacen tibia y flojamente no tienen mérito ni valen nada» (2.ª parte, capítulo 36). El Index fomentaba así la autocensura por los propios autores.

Para el mantenimiento del Index después de la primera edición, de Pío V, se instituyó en 1571 la Sagrada Congregación del Índice. El Índice fue actualizado regularmente hasta su suspensión, en 1966, con materiales que se fueron agregando tanto por la Congregación como por el Papa. Otras congregaciones, como el Santo Oficio, pasaban a la anterior sus propias correcciones, para que las incorporara. Al final la lista debía ser aprobada por el Papa, que podía indultar a algún autor o añadir otro, como ocurrió en el caso de Lamennais.

La lista incluyó a autores literarios como Rabelais (obra completa) o La Fontaine (Contes et nouvelles), pensadores como Descartes o Montesquieu y científicos o protocientíficos como Conrad Gessner o Copérnico. Este último entró en la lista como consecuencia del proceso de la Inquisición contra Galileo, por un decreto de la Congregación General del Índice de 5 de marzo de 1616, que obligaba expurgar ciertos pasajes, incompatibles con la fe, que mostraban como seguro que la Tierra se mueve en torno a un Sol inmóvil (teoría heliocéntrica).1 Las enmiendas fueron publicadas en 1620, pero la obra de Copérnico (De revolutionibus orbis coelestium) no salió del Index hasta 1758. Johannes Kepler, que defendió en 1618 el heliocentrismo de Copérnico, fue a su vez incluido en el Índice.

La trigésima segunda edición, de 1948, última publicada, contenía aproximadamente 4 000 títulos censurados por varias razones: herejía, deficiencia moral, sexo explícito, inexactitudes políticas, entre otras. La lista incluía junto a una parte de la lista histórica, buena parte de los novelistas del siglo XIX, como Zola o Balzac, cuyas obras estaban prohibidas completas, o Victor Hugo, del que Los miserables no fueron retirados hasta 1959. Entre los pensadores se encuentran Michel de Montaigne (los Ensayos), Descartes (varias obras, incluidas las Meditaciones metafísicas), Pascal (Pensées), Montesquieu (Lettres persannes), Spinoza (Opera Posthuma publicada en 1677, que contenía no sólo su Tratado teológico-político, sino también su Ética y su Tratado político, entre otros), David Hume, Kant (Crítica de la razón pura), Beccaria (De los delitos y las penas), Berkeley, Condorcet (Esquisse d’un tableau historique des progrès de l’esprit humain), o Bentham. Algunos autores modernos llegaron a tiempo de ser incluidos en la lista antes de su abolición, por ejemplo, Maurice Maeterlinck, cuyas obras fueron prohibidas íntegras, lo mismo que las de los autores siguientes: Anatole France (incluido en 1922),2 André Gide (1952)2 o Jean Paul Sartre (1959).2 Otra inclusión significativa es la del sexólogo holandés Theodoor Hendrik van de Velde, autor del manual de sexo El matrimonio perfecto, en el que se animaba a los matrimonios a disfrutar del sexo.

Los autores notables por su ateísmo, como Schopenhauer, Marx o Nietzsche, o por su hostilidad a la Iglesia Católica, no suelen figurar en el Índice, puesto que tales lecturas están prohibidas ipso facto. Se incluye, más bien, a aquellos autores y obras de los que los fieles pueden no ser inmediatamente conscientes de que sus posiciones son gravemente contrarias a la doctrina de la Iglesia, como Erasmo de Rotterdam, Michel de Montaigne, La evolución creadora, de Henri Bergson o, por ejemplo, las actas del Congrès d’histoire du christianisme (Congreso de historia del cristianismo) de 1933.

Algunos de los títulos integraron este índice por tener un contenido político definido: en 1926, la revista “Acción francesa”, que defendía causas de extrema derecha, fue puesta en la lista.

Los efectos de este índice se sintieron por todos lados, más allá del mundo católico. Durante muchos años, en lugares como Quebec, España, Italia y Polonia (países católicos), fue muy difícil encontrar copias de estos libros, especialmente fuera de las grandes ciudades.

Final del Index

Como lista oficial y la excomunión que implicaba su lectura, fue abandonada en el 14 de junio de 1966, bajo el papado de Pablo VI, seguidamente del final del Concilio Vaticano II y en gran parte debido a consideraciones prácticas. No obstante puede ser considerado un pecado venial para los católicos el hecho de leer libros que eran injuriosos contra la fe o la moral católica.

El Vaticano, sin embargo, hizo públicas nuevas regulaciones acerca de libros, escritura y medios de difusión, que incluyó en dos artículos del actual Código de Derecho Canónico:

831

1-Sin causa justa y razonable, no escriban nada los fieles en periódicos, folletos o revistas que de modo manifiesto suelen atacar a la religión católica o las buenas costumbres; los clérigos y los miembros de institutos religiosos sólo pueden hacerlo con licencia del Ordinario del lugar
2-Compete a la Conferencia Episcopal dar normas acerca de los requisitos necesarios para que clérigos o miembros de institutos religiosos puedan tomar parte en emisiones de radio o de televisión en las que se trate de cuestiones referentes a la doctrina católica o a las costumbres.

832

Los miembros de institutos religiosos necesitan también licencia de su Superior mayor, conforme a la norma de las constituciones, para publicar escritos que se refieran a cuestiones de religión o de costumbres.

Autores u obras prohibidas

En la primera edición (1559) aparecían tres listas que agrupaban:

Todas las obras y escritos de un autor prohibido.
Libros específicos de un autor prohibido.
Escritos específicos de un autor incierto.

Algunos autores notables cuya obra completa integraba la lista son los siguientes:

Erasmo de Rotterdam (1500)
François Rabelais
Giordano Bruno
René Descartes (1633)
Thomas Hobbes (1649-1703)
David Hume (1761-1872)
Denis Diderot
Honoré de Balzac
Émile Zola (1894-1898)
Anatole France (1922)
Henri Bergson (en 1914)
Maurice Maeterlinck
André Gide (1952)
Jean-Paul Sartre (1959)

Entre los libros específicos se encontraban:

De revolutionibus orbium coelestium de Nicolás Copérnico (1616)
In Job Commentaria de Diego de Zuñiga (1616)
Ensayos de Michel de Montaigne (1676)
The arrangment de Francis Bacon (1668)
Los libros filosóficos de René Descartes (en 1663)
Pensées, avec les notes de Voltaire de Blaise Pascal (1789)
Pamela o la virtud recompensada de Samuel Richardson (1740)
El contrato social y Emilio, o De la educación de Jean-Jacques Rousseau
Crítica de la razón pura de Immanuel Kant (1827)
Historia de la decadencia y caída del Imperio romano de Edward Gibbon (1873)
Justine y Juliette del Marqués de Sade
Science de l’homme de Claude Henri Saint-Simon
De l’Allemagne de Heine (1836)
Los Papas romanos, su Iglesia y su Estado en los siglos XVI y XVII de Leopold von Ranke (1837)
Rojo y negro de Stendhal (1848)
Cours de philosophie positive de Auguste Comte (1864)
Los miserables y Nuestra Señora de París de Victor Hugo (1834-1869)
Algunas obras de Alexandre Dumas (padre) (1863)
Las novelas de George Sand (1840)
Principios de economía política de John Stuart Mill (1856)
Gran Diccionario Universal de Pierre Athanase Larousse
Madame Bovary de Gustave Flaubert (1864)
Varias obras de Alexandre Dumas (hijo) (en 1963)
Prólogo de Emilio Castelar a la Historia general de la masonería de G. Danton
Las novelas de Gabriele D’Annunzio (en 1911)
Lazarillo de Tormes, anonimo.

Fuente: Wikipedia

SEE Sindrome del Edificio Enfermo

El síndrome del edificio enfermo (SEE), se conoce también como Sick Building Syndrome (SBS).

La Organización Mundial de la Salud lo ha definido como un conjunto de enfermedades originadas o estimuladas por la contaminación del aire en estos espacios cerrados.

Es un conjunto de molestias y enfermedades originadas en la mala ventilación, la descompensación de temperaturas, las cargas iónicas y electromagnéticas, las partículas en suspensión, los gases y vapores de origen químico y los bioaerosoles, entre otros agentes causales identificados.

El tipo de malestares que producen y estimulan estas situaciones es variado: jaquecas, náuseas, mareos, resfriados persistentes, irritaciones de las vías respiratorias, piel y ojos, etc. Entre estos malestares, las alergias ocupan un papel importante.

En la evaluación, entre otras cosas, se ha de determinar el tipo y tamaño de las rejillas de impulsión, así como medir su caudal y compararlo con los estándares de ASHRAE (American Society of Heating, Refrigerating and Air-Conditioning Engineers)

Causas

Los factores que contribuyen al síndrome se relacionan al diseño del ambiente construido, y puede incluir combinaciones de algunos o a todas las siguientes causas:

Interior contaminación del aire
Perfumes artificiales
Pobre o inapropiada e incluso excesiva iluminación (incluyendo ausencia de o solo limitados accesos a la luz natural).La excesiva iluminación genera reflejos en las pantallas de trabajo de los puestos administrativos.
Pobre calentamiento o enfriamiento de las estancias y / o ventilación
Mal posicionamiento de los sistemas de calefacción y aire acondicionado
Mala acústica
Pobres diseños de muebles y equipos (e.g. monitores de Pcs, fotocopiadoras, etc.).
Pobre ergonomía.
Contaminación química.
Contaminación biológica.

Al dueño o al operador de un “edificio enfermo”, los síntomas pueden incluir altos niveles de empleados enfermos o ausentismo, baja productividad, baja satisfacción laboral y alta rotación de empleados.

Soluciones

La remoción de las fuentes de contaminantes o su modificación: mantenimiento de1 HVAC sistemas, reemplazo de cielorasos, paredes y carpetas sellados al agua, institución de restricciones severas a fumar, almacenar fuera fuentes de emisiones de contaminantes de pinturas, adhesivos, solventes, pesticidas; o al menos en áreas muy bien ventiladas, y el uso de esos contaminantes durante periodos de no ocupación.

Cambiando el posicionamiento de las fuentes de frío y calor, así como los sistemas de renovación de aire de manera indirecta para que nunca estén sobre las cabezas o sobre los cuerpos de las personas que conviven en las estancias.

Creando normas básicas para que las condiciones ambientales para estancias en la que tengan que convivir varias personas con unos criterios lógicos de la calidad del aire:

Temperatura
Humedad
Renovación del aire

La temperatura ideal estará en torno a los 22 a 24º con un índice de humedad que no cree la sensación de agobio.

Fuente Wikipedia

 

La Apología de Socrates

  Representación de la muerte de Socrates. 

Apología de Sócrates (Ἀπολογία Σωκράτους) es una obra de Platón que da una versión del discurso que Sócrates pronunció como defensa, ante los tribunales atenienses, en el juicio en el que se lo acusó de corromper a la juventud y no creer en los dioses de la polis. Aunque su datación exacta es incierta, el texto, por su temática, pertenece al ciclo platónico de las primeras obras llamadas «socráticas», que Platón escribió en su juventud, e incluso se piensa que es su primera obra.

Introducción

Sócrates comienza diciendo que no sabe si los atenienses (asamblea general) han sido ya persuadidos por los que lo acusan. Este comienzo es crucial para establecer el tema de todo el discurso, pues es frecuente que Platón comience sus diálogos socráticos exponiendo la idea general del texto. En este caso, el diálogo se abre con “¡Ciudadanos atenienses!, Ignoro qué impresión habrán despertado en vosotros las palabras de mis acusadores”. Este ignoro, de hecho sugiere que la filosofía expuesta en la Apología va a consistir enteramente en una sincera admisión de ignorancia, pues todo su conocimiento procede de su no saber nada: “Solo sé que nada sé”. Sócrates pide al jurado que no le juzgue por sus habilidades oratorias, sino por la verdad que estas convocan. A su vez, asegura que no va a utilizar ornamentos retóricos ni frases cuidadosamente preparadas, sino que va a decir en voz alta lo que se le pase por la cabeza, las mismas palabras que utilizaría en el ágora y en las reuniones, pero a pesar de esto demuestra ser un maestro en retórica, y que no es solo elocuente y persuasivo, sino que sabe jugar con el jurado. El discurso, que ha puesto a los lectores de su lado durante más de dos milenios, no consigue ganarle el juicio. Sócrates fue condenado a muerte, y ha sido admirado por su calma aceptación de ello.

La acusación

Los tres hombres en presentar cargos contra Sócrates son: Anito, hijo de un ateniense prominente, Antemión. Anito aparece en Menón, donde aparece inesperadamente mientras Sócrates y Menón (que está visitando Atenas) discuten si la virtud puede ser enseñada.

Sócrates argumenta que no, y ofrece como evidencia que muchos buenos atenienses han tenido hijos inferiores a sus padres, tras lo cual procede a dar nombres, entre ellos Pericles y Tucídides. Anito se ofende, y avisa a Sócrates que menospreciar (“kakòs légein”) a esas personas le traerá problemas algún día. (Menón 94e-95a). Meleto, de los tres el único en hablar durante la defensa de Sócrates. También se lo menciona en otro diálogo,Eutifrón, aunque no aparece.

En él Sócrates dice que Meleto es un joven desconocido de gran nariz aquilina. En la Apología, Meleto presenta sus acusaciones, lo que permite a Sócrates rebatirlas. Sin prestar mucha atención a los cargos que está afirmando, acusa a Sócrates de ateísmo, y de corromper a la juventud mediante sus enseñanzas. Licón, del cual poco se sabe; de acuerdo con Sócrates era representante de los oradores.

Los cargos contra Sócrates

Sócrates dice que tiene que rechazar dos tipos de acusaciones diferentes: los viejos cargos de que es un criminal y un curioso que pregunta hasta al cielo y la tierra, y los más recientes cargos legales de corromper a los jóvenes y de creer en cosas sobrenaturales de su propia invención, en vez de los dioses de la polis. Sobre los viejos cargos dice que son el resultado de años de rumores y prejuicio, y por lo tanto no pueden ser respondidos. Sócrates desvirtúa estos “cargos informales” dándoles una apariencia legal diciendo: “Socrates comete delito al investigar los fenómenos celestes y subterráneos, debido a que, según ellos, convierte el argumento más débil en el más fuerte, instruyendo esto a otros, y sin creer en los dioses, es decir, es ateo. También dice que estas alegaciones nacieron de la boca de cierto poeta cómico, es decir, Aristófanes.

La apasionada defensa de Sócrates al ser acusado de sofista, no es más que una distracción de las otras, más graves, acusaciones, pues los sofistas no eran condenados a muerte en Grecia; al contrario, eran frecuentemente buscados por los padres para ser tutores de sus hijos, por lo que Sócrates dice que no puede ser confundido con un sofista, ya que éstos son sabios (o creen que lo son), y están bien pagados, mientras que él es pobre (a pesar de ser frecuentemente visto en las mesas de juego), y dice no saber absolutamente nada. La obra La Apología se divide en tres partes. La primera para propia defensa de Sócrates, y que contiene las partes más famosas del texto, como el recuerdo de su visita al Oráculo de Delfos y su refutación a Meleto.

Discurso principal (17a – 35d)

Lo primero que hace Sócrates es acusar al que le acusa, Meleto, cuyo nombre significa “aquel al que le importa”, de no importarle las cosas que dice le importan. Mientras interroga a Meleto, dice que nadie corrompería intencionadamente a otro, pues después correría el riesgo de que éste les dañara en el futuro. Este tema de la corrupción es importante por dos razones: primero pues parece ser la acusación más grave que se le imputa, el corromper a los jóvenes enseñándoles una versión de ateísmo, y la segunda, porque Sócrates clama que si Meleto está convencido, debe ser porque Aristófanes corrompió las mentes de su audiencia, cuando ésta era joven (con su obra Las Nubes, escrita 24 años antes).

Así pues Sócrates partió en una “misión divina” para resolver la paradoja (que un hombre ignorante pudiera ser también la persona más sabia de la ciudad) e intentó demostrar que el dios se equivocaba. Tras esto, proclamándose la voz del oráculo (23e), procede a preguntar sistemáticamente a los políticos, poetas y artesanos, determinando al final que los primeros son impostores, los segundos no comprendían sus propias obras al igual que los visionarios y los profetas no comprenden sus visiones, y que los terceros tampoco se libran de ser pretenciosos. Por su parte, él se pregunta así mismo si preferiría ser un impostor, como la gente con la que habla, y de nuevo hablando como la voz del oráculo responde que no, pues prefiere ser él mismo. Sócrates comienza diciendo al jurado que sus mentes han sido envenenadas por sus enemigos mientras eran jóvenes e impresionables y que su reputación de sofista ha sido impuesta por sus enemigos, los cuales son maliciosos y le tienen envidia. Dice, sin embargo, que éstos van a permanecer en el anonimato, salvo Aristófanes, el poeta cómico. Responde después a la acusación de corromper a los jóvenes argumentando que el corromperlos de forma deliberada es una idea incoherente. Después explica que todos sus problemas comenzaron con la visita al oráculo, tras lo cual, recuenta ésta. Querefonte acudió al Oráculo de Delfos para preguntar si había alguien más sabio que Sócrates, a lo que el dios respondió que no lo había. Cuando Querofonte se lo refirió a Sócrates éste se lo tomó como una adivinanza, pues clamaba no poseer sabiduría grande o pequeña, pero también que era contrario a la naturaleza de los dioses el mentir. Sócrates dice que estas preguntas indiscriminadas le ganaron la reputación de cotilla o curioso, pero a partir de ahí él interpreta su misión en la vida como la prueba de que la verdadera sabiduría pertenece exclusivamente a los dioses, y que la sabiduría humana tiene poco o ningún valor.

Habiendo refutado los prejuicios, Sócrates comienza a defenderse de los cargos formales de corrupción de los jóvenes y ateísmo. Procede después a defenderse de la acusación de ateísmo tendiendo una trampa a Meleto hasta que éste se contradice diciendo que Sócrates es un ateo y que cree en semidioses y espíritus. Sócrates humilla a Meleto preguntando a la corte si éste ha pasado algún test que muestre si sabe identificar contradicciones lógicas. En una de las partes más controvertidas de la obra, Sócrates afirma que no ha habido mayor bien para Atenas que su preocupación por sus compañeros ciudadanos, que la riqueza es una consecuencia de la bondad, y que los dioses no permiten que un hombre bueno sea dañado por uno peor que él. Clama ser un tábano y el estado un gran caballo perezoso que necesita ser despertado. Para probar esto, Sócrates recuerda al jurado de su daimon, que él ve como una experiencia sobrenatural. Reconoce que esto hará sospechar a muchos de que realmente inventa deidades, pero no hace concesiones en este respecto, a pesar de estar al tanto de las sospechas que esto levantaría. Sócrates proclama no haber sido nunca un profesor, puesto que no ha impartido su conocimiento a otros. Por esta razón no se le puede hacer culpable de lo que hacen otros ciudadanos.

Si ha corrompido a alguien, dice, ¿Por qué no acuden como testigos?, si han sido corrompidos, ¿Por qué no ha intercedido la familia en su beneficio? además muchos de estos familiares acudieron al juicio en defensa de Sócrates. Para concluir esta parte, Sócrates recuerda a los jurados que no va a recurrir a los trucos comunes de llantos, ni traerá a sus tres hijos para provocar su compasión. Afirma no temer a la muerte y asegura que no actuará de manera contraria a su deber religioso, por lo que confiará plenamente en su sólida argumentación y en la verdad para ganarse el veredicto. El jurado, sin embargo, lo encuentra culpable por 281 votos a 220.

Después del veredicto (35e – 38b)

Sócrates propone un castigo alternativo que no le generara popularidad. Como se considera benefactor de Atenas, dice que deberían participarlo en las comidas del Pritaneo, uno de los edificios que albergaba a miembros de la asamblea. Esto era un honor reservado a atletas y otros ciudadanos importantes. Considera después la prisión seguida de una multa de una mina de plata (100 dracmas), pues no tenía suficiente dinero para pagar una multa mayor. El jurado, considerándolo una suma muy pequeña comparada con el castigo propuesto por la acusación, opta por la condena a muerte.

Los amigos de Sócrates se disponen a aumentar la suma inicial a 30 minas, pero la asamblea no ve esto como una alternativa, por lo que se deciden por la pena de muerte bebiendo cicuta. Luego de la sentencia (38c – 42aD) La alternativa propuesta por Sócrates enfadó al jurado. 360 votaron por la sentencia a muerte, y solo 141 votaron en favor de la multa de 3.000 dracmas. Sócrates, entonces, responde al veredicto, refiriéndose primero a los que votan por su muerte. Afirma que no ha sido la falta de argumentos por su parte lo que ha dado resultado a su condena, sino su repulsión por rebajarse a las habituales prácticas sentimentalistas que podían esperarse de cualquiera que se encuentra ante una condena a muerte e insiste, de nuevo, que la cercanía de la muerte no exime a uno de seguir el camino de la bondad y la verdad. Profetiza que críticos más jóvenes y severos seguirán sus pasos, sometiéndoles a una examinación más rigurosa de sus propias vidas.

Para aquellos que votaron a su favor dice que su “daimon” no quiso detenerle en su discurso pues consideraba que era la forma correcta de actuar. Como consecuencia, la muerte debe ser una bendición pues, o constituirá la aniquilación (trayendo paz a todas sus preocupaciones) o una migración a otro lugar en el que conocer las almas de gente tan famosa como Hesíodo y Homero o héroes como Odiseo, con los que puede continuar su labor de preguntar todo. Sócrates concluye la Apología diciendo que no guardará rencor contra los que le han acusado y condenado, y en un acto de total confianza les pide que cuiden de sus tres hijos mientras éstos crecen, asegurándose de que éstos pongan lo bueno por delante de su propio interés. Al final de todo, Sócrates dice: “Es hora de irse, yo para morir, y vosotros para vivir. Quién de nosotros va a una mejor suerte, nadie lo sabe, solo los dioses lo saben”.

Fuente: Wikipedia

Morgan Robertson (n. 30 de septiembre de 1861 – 24 de marzo de 1915) fue un oficial estadounidense de la marina mercante, además de escritor y posible inventor del periscopio. Popularmente es conocido como el hombre que escribió en 1898 una novela titulada Futility, or the Wreck of the Titan, en la cual un transatlántico llamado Titán se hundía en las aguas del océano Atlántico al chocar con un iceberg.

El Titán se parecía de manera desconcertante al famoso transatlántico Titanic, el cual describe de manera casi idéntica, coincidiendo incluso con su peso, longitud y capacidad de pasajeros.

Increíble pero cierto. Esta novela trata sobre un palacio flotante que zarpó desde Southhampton para cruzar el Atlántico. Era el crucero más grande y lujoso jamás construido, y sus pasajeros eran los más distinguidos miembros de la burguesía mundial. Era descrito como inundible, pero estaba destinado a nunca alcanzar su destino: el casco sería abierto por un iceberg y se hundiría dejando apenas unos cuantos sobrevivientes. El crucero existía sólo en papel, en la imaginación del novelista Morgan Robertson.

Pero no acaban aquí las coincidencias. ¿Saben qué nombre le había dado a su barco ficticio? Titán…

Esta novela de ficción escrita se transformaría en aterradora realidad catorce años más tarde, cuando un crucero de verdad salió en su viaje inaugural. Este también estaba repleto de pasajeros ricos y nobles. También se encontraría con un iceberg y, como en la novela de Robertson, la pérdida de vidas sería inmensa, gracias a que no había suficientes botes salvavidas. Este barco era el Titanic, el cual se hundió en el Atlántico el 14 de abril de 1912, ¡el mismo mes que el Titán de la novela!

Robertson era un escritor que logró cierta notoriedad con sus historias y novelas cortas sobre la vida del mar. La mayoría de sus obras sólo se encuentran en microfilm, pero tras el estreno de la película Titanic (1997) su libro fue publicado nuevamente, posiblemente buscando acrecentar las ventas a raíz de tamaña coincidencia.

El Titanic y el Titán de Robertson eran similares en muchas cosas más que en la forma en que se hundieron en el mar. Ambos eran casi del mismo tamaño (800 y 882 pies), alcanzaban la misma velocidad máxima (24 nudos) y tenían la misma capacidad (+/- 3000 personas); el Titán llevaba 2000 pasajeros abordo y 24 salvavidas, el Titanic 2200 y 20 salvavidas. Ambos era “inundibles” y los dos se hundieron en el mismo territorio del Atlántico Norte con el casco frontal y en estribor abierto como una cuchillada, llevándose consigo la bandera de la nacionalidad de ambos botes, la inglesa.


Tras la tragedia del Titanic, Futilidad quedó para siempre marcado porque se convirtió en uno de esos libros que se leen más por curiosidad que por verdadero interés en el autor, que no es tan conocido. Su libro, como consecuencia del accidente, fue solicitado inmediatamente por las librerías de toda Europa y segundas y terceras impresiones empezaron a volar de las estanterías. Las similitudes eran demasiado cercanas como para ser ignoradas y Robertson fue rápidamente encasillado como un “visionario”. Pero igual de rápidamente pasó al olvido, a medida que las noticias del barco fueron desapareciendo de los diarios y la memoria del Titanic pasó a la historia.

Robertson había nacido en Nueva York en 1861, y había hecho su vida como marino mercante entre 1877 y 1886. La primera historia que escribió se llamó “La destrucción del más débil” y en menos de dos meses una revista se la compró para publicarla. El cheque que llegó en el correo fue de 25 dólares. Robertson, convencido de que podía vivir de la escritura, produjo entre 1896 y 1915 doscientas historias cortas y 14 libros, los cuales -aunque no eran obras maestras- llamaron la atención de los amantes de las aventuras y el universo marino. También es posible que sea el inventor del periscopio, según dicen, pues habría descrito un aparato similar en una novela, y lo habrían llamado para bosquejar aquello que parecía ser de tanta utilidad y un gran invento, pero que existía sólo en el papel.

No obstante esta información que fue apareciendo mientras investigaba con curiosidad sobre este escritor, me encontré con algo también impresionante, y es que en 1914 Morgan Robertson escribió otra de sus historias, la cual fue tan profética como la primera. Escribió una novela que se llamaba “Beyond the Spectrum” (Más Allá del Espectro). En ella Robertson describía una guerra en el futuro. Una que era peleada con aviones que lanzaban bombas, llamadas en el libro “bombas soles”. Estas eran tan poderosas que con una explosión brillante de luz enceguecedora, una sola bomba podía destruir una ciudad entera. Cuando Robertson escribió esto, los aviones apenas eran prototipos que vivían más en la tierra que en el aire y todavía no se consideraban como máquinas de guerra. Las bombas atómicas aún eran inimaginables. La guerra del libro de Robertson comenzaba en el mes de diciembre, mes en que comenzó la Segunda Guerra Mundial para los Estados Unidos con un ataque sorpresa de los japoneses a Pearl Harbour. ¿No es increíble?

Por supuesto que las similitudes entre sus escritos y la vida real no sirvieron de advertencia a nadie en ninguno de los dos casos. Si todos leyésemos libros y pensáramos con miedo si será algo que puede llegar a pasar, no viviríamos en paz, ¿verdad? Pero me pareció bueno compartir algo que me llamó tanto la atención, y que aunque fueron escritos como novelas lamentablemente terminaron siendo demasiado parecidos a la realidad.

Fuente: http://blogdecartelera.blogspot.mx/2008/06/morgan-robertson-y-el-titanic.html

El Naufragio del Titán – Morgan Robertson

El Ensayo sobre el principio de población es una obra del siglo XIX, publicado originalmente en inglés como An Essay on the Principle of Population (1798), es una obra de demografía escrita por el economista inglés Thomas Robert Malthus, en la que desarrolla la influyente teoría de que la población crece más rápidamente que los recursos, conduciendo a una progresiva pauperización de la población.

La predicción principal de dicha obra se conoce como ley de Malthus, que no se llegó a producir nunca debido a la atenuación del crecimiento población caracterizado por disminución de mortalidad y natalidad, fenómeno recogido en primera instancia por la teoría de la transición demográfica y más recientemente por la teoría de la revolución reproductiva.

Ley de Malthus

El trabajo de Malthus pretendía interpretar la desigualdad económica, la miseria y la pobreza de las masas trabajadoras bajo el capitalismo como una consecuencia práctica del crecimiento de la población y la escasez de recursos.

Malthus afirmaba que la población se duplicaba cada 25 años, es decir, crecía en progresión geométrica, presentando un crecimiento exponencial. Para ello se basó en los datos de crecimiento de población en Estados Unidos durante el siglo XVIII. Por otra parte Malthus supuso que los medios de subsistencia, en el mejor de los casos, aumentan en progresión aritmética, es decir, presentan un crecimiento lineal.

Su método positivo habla de buscar el camino del equilibrio mediante la muerte, con sus diferentes formas de alcanzarla como son las epidemias, el hambre y las guerras. Para Malthus, el alimento más barato debía ser el pan, pues sacia el apetito sin aportar demasiados nutrientes al organismo (de los marginados).

En vez de recomendarles limpieza a los pobres, hemos de aconsejarles lo contrario, haremos más estrechas las calles, meteremos más gente en las casas y trataremos de provocar la reaparición de alguna epidemia

Así, Malthus pretendía que los proletarios construyesen sus viviendas en los terrenos pantanosos e insalubres, viendo con malos ojos a los individuos compasivos que creen hacerle un gran beneficio a la humanidad estudiando la manera de extirpar para siempre ciertas enfermedades.

Malthus cree que la miseria es una ley natural e inconmovible, contra la cual es inútil actuar. Por el contrario, si no bastan los cataclismos de la naturaleza, el Estado debe “contribuir” poniendo su ingrediente de guerras, desentendiéndose de la sanidad pública y de cualquier norma de protección humana. De ahí que se oponga a las llamadas Poor Laws (‘leyes de pobreza’), estableciendo que los subsidios a los pobres no pueden impedir ni la pobreza ni el hambre: “Si los alimentos no alcanzan para todos, un subsidio a los pobres no puede aumentar su volumen, ya que lo único que puede traer consigo es el aumento de la cantidad de pobres, pero en ningún caso más riquezas.”

Además, este libro le dio la idea de la selección natural a Charles Robert Darwin, que después de leerlo resolvió el enigma de la evolución. Dedujo que las poblaciones al final lucharían por los recursos y sólo sobrevivirían los más fuertes.

La teoría de Malthus sobre el crecimiento de la población:

“Considerando aceptados mis postulados, afirmo que la capacidad de crecimiento de la población es infinitamente mayor que la capacidad de la tierra para producir alimentos para el hombre. La Población, si no encuentra obstáculos, aumenta en progresión geométrica. Los alimentos tan sólo aumentan en progresión aritmética. Basta con poseer las más elementales nociones de números para poder apreciar la inmensa diferencia a favor de la primera de estas dos fuerzas. No veo manera por la que el hombre pueda eludir el peso de esta ley, que abarca y penetra toda la naturaleza animada. Ninguna pretendida igualdad, ninguna reglamentación agraria, por radical que sea, podrá eliminar, durante un siglo siquiera, la presión de esta ley, que aparece, pues, como decididamente opuesta a la posible existencia de una sociedad cuyos miembros puedan todos tener una vida de reposo, felicidad y relativa holganza y no sientan ansiedad ante la dificultad de proveerse de los medios de subsistencia que necesitan ellos y sus familias.”

Thomas Robert Malthus, Primer ensayo sobre la población (1798)

También está relacionado con la ecuación de crecimiento logístico.

Fracaso y éxito de la ley de Malthus

Si bien en su momento muchas personas tomaron seriamente las predicciones de Malthus sobre las consecuencias del aumento de población, el pronóstico catastrofista no se cumplió por varias razones:

En primer lugar ocurrió la llamada transición demográfica por la cual muchas sociedades a partir de un nivel de renta moderaron la tasa de natalidad, pasando de un crecimiento exponencial a un crecimiento logístico. Esto implica substituir la primera de las dos ecuaciones en , substituyéndola por la ecuación diferencial asociada al crecimiento logístico.

Por otra parte la tasa de aumento de los recursos alimentarios ha crecido más rápido de lo previsto.

Esas dos hipótesis en conjunto sirven hacen que no se de la catástrofe malthusiana tras un tiempo finito como indica  ya que las relaciones de incremento de población e incremento de recursos reales han diferido de las previstas por Malthus.

Sin embargo, algunos autores como Jared Diamond al analizar el genocidio de Ruanda en su libro Colapso: por qué unas sociedades perduran y otras desaparecen, sugiere que los datos de aumento de población y extrema partición de la tierra, sentaron probabilísticamente la base de un conflicto malthusiano en el que el deterioro de las condiciones de vida facilitó la difusión de actitudes genocidas.

Fuente: Wikipedia

Awareness’s Blog

Que es el movimiento FlashMob?

Un flashmob, traducido literalmente de inglés como «multitud instantánea» (flash: destello, ráfaga; mob: multitud), es una acción organizada en la que un gran grupo de personas se reúne de repente en un lugar público, realiza algo inusual y luego se dispersa rápidamente. Suelen convocarse a través de los medios telemáticos (móviles e Internet) y en la mayor parte de los casos, no tienen ningún fin más que el entretenimiento, pero pueden convocarse también con fines políticos o reivindicativos.

Una de las particularidades de estas «tribus temporales» es que no requieren contar con el apoyo de los mass media para comunicarse, coordinarse y actuar de manera conjunta, ya que su comunicación funciona a través de redes sociales virtuales. Se trata de individuos que, apoyados por las tecnologías de comunicación, difunden mensajes a sus redes sociales de amigos y conocidos, los cuales hacen lo mismo hasta construir una gran cadena de comunicación que es capaz de movilizar a miles de personas.

Recientemente, la actividad ha sido utilizada como parte de campañas publicitarias de diversos productos, programando la reunión en algún sitio público pero con la participación de bailarines y artistas que simulan un flashmob tradicional pero incluyendo aspectos de la marca que se promueve.

Organización

Basta con que alguien convoque a una manifestación a través de un mensaje, canalizado por algún soporte digital, para que comience el efecto «bola de nieve». Algunos de los canales utilizados son:

Dispositivos con conexión a Internet, web, foros, comunidades virtuales, e-mail, blog, chat.
Cadena de mensajes de texto.
Transferencia de boca a oreja.

En estos mensajes se informa el día, lugar y hora exacta del encuentro. Ya que los flashmob pueden durar apenas unos minutos, se requiere que todos los participantes sincronicen sus relojes bajo una hora oficial. Otra particularidad de este fenómeno es que a los convocados no siempre se les informa sobre el tipo de movilización que se realizará, ya que eso se comunica en el mismo lugar de encuentro (o en un bar cercano a donde se hará la manifestación).

En su sentido estricto, como lo relata Rheingold, el flashmob es un fenómeno social (originado por el público en los medios directos de redes sociales digitales y SMS), por lo que el uso de presentaciones similares por parte de agencias publicitarias y promotores de productos, es un ardid que imita pero no se constituye en un flashmob, y en muchas legislaciones puede estar violando leyes de veracidad y regulacion publicitaria, pues este engaño lleva a interpretaciones alejadas de la realidad y no son eticos excepto que aclaren que es un producto elaborado y no una agrupacion de personas instantaneas a voluntad.

Orígenes

El fenómeno de los flashmobs comenzó con la publicación en octubre de 2002 del libro del sociólogo Howard Rheingold, “Smart Mobs: The Next Social Revolution”. En este libro el autor predecía que la gente usará las nuevas tecnologías de comunicación (Internet, teléfonos móviles) para autoorganización. En junio de 2003 Rob Zazueta de San Francisco, después de haber leído las obras de Rheingold, creó la página web flocksmart.com en la que por primera vez los mobbers empezaron a planear sus reuniones.

El primer flashmob se organizó en Manhattan el 3 de junio de 2003 por Bill Wasik, editor junior de Harper’s Magazine. El origen de este flashmob fue desconocido hasta que Wasik publicó un artículo sobre su creación en marzo de 2006 en una edición de Harper’s Magazine. Este primer intento fue un fracaso, ya que alguien le contó a las personas de la tienda sobre lo que iba a pasar.

El primer flashmob que tuvo éxito se realizó el 17 de junio de 2003 en Nueva York, EE. UU., en el departamento de ventas de Macy’s. Para prevenir los problemas del primer intento, Wasik se reunió con los participantes en unos puntos de encuentro preliminares –cuatro bares de alrededores de Manhattan– donde fueron repartidas las instrucciones con la información sobre lo que iban a hacer y el lugar donde se realizará el evento justo antes del comienzo de éste.

Así, más de 100 personas subieron a la novena planta de Macy’s, donde se encontraba su departamento de alfombras y se reunieron alrededor de una alfombra carísima. Cualquiera, a quien se acercara el dependiente de la tienda, le contestaba que ellos vivían juntos en un almacén de afueras de Nueva York, y que todos ellos han venido a comprar “La Alfombra de Amor”, ya que todas sus decisiones las tomaban en grupo.

Objetivos y derivaciones

Los flashmobs empezaron como espectáculos sin sentido, y se considera que la única razón posible para organizar estos encuentros es la diversión. Los matices sociales y políticos convierten los flashmobs en smartmobs. Sin embargo, hoy en día a todos los eventos socio-políticos de estas características se les suele denominar flashmobs. Es la manera más fácil, operativa y menos peligrosa de mostrar la opinión pública o llamar la atención hacía algún problema existente.

Las absurdmobs tienen un matiz diferencial y es que se centran en generar actos colectivos de invasión en el orden social a través de llevar a cabo un gesto absurdo multitudinario. La primera absurdmob se realizó el 9 de noviembre de 2006 en Barcelona (España), consistió en unas 25 personas que empezó a chutar latas de coca cola en la plaza del Borne, y posteriormente se dispersaron. La otra característica de las absurdmobs es que las imágenes de documentación que los absurdmovers registran en sus acciones son reutilizadas si se desea de modo absurdo, como por ejemplo, utilizar las imágenes de la chutada de latas para enviarles un mail a coca cola y decirles que esa actividad fue una manifestación con el siguiente lema: la coca cola ya no tiene el mismo gusto.”

La segunda absurdmob que se conoce fue realizada por una serie de alumnos universitarios también de Barcelona, consistía en movimiento desordenado de las sillas de una aula, estas imágenes sirvieron para una protesta enviada al Ministerio de Educación con el siguiente lema: «protesta de los alumnos no becados por el ministerio».

Los objetivos de las absurdmobs como su nombre hace prever retoman el carácter inicial de las primeras flashmobs: actividades comunitarias de autoorganización con medios telemáticos, el objetivo de las absurdmobs es potenciar el carácter de espectacularización que conlleva ponerse de acuerdo multitudinariamente para una actividad absurda y un proceso de manipulación del sentido que pueden tener las imágenes de multitudes en los medios.

Fuente: Wikipedia

This slideshow requires JavaScript.

Electrónica molecular

La electrónica molecular, a veces llamada moletrónica, es la rama de la ciencia que estudia el uso de moléculas orgánicas en la electrónica.

Los primeros trabajos acerca de la transferencia de cargas eléctricas entre moléculas fueron realizados por Robert Mulliken y Albert Szent-Gyorgi en 1940. Sin embargo, el primer dispositivo moletrónico no fue desarrollado hasta 1974, año en el que se construye un biestable de melanina. En 1988 fue descrita una molécula capaz de actuar como un transistor de efecto campo.

Los recientes avances en nanotecnología y el descubrimiento de polímeros conductores y semiconductores, merecedor del premio Nobel de Química del año 2000, han permitido avances espectaculares en la materia. Dispositivos como los diodos orgánicos emisores de luz (OLED por sus siglas en inglés), transistores orgánicos de efecto campo (OFET por sus siglas en inglés) o paneles solares orgánicos son ya conocidos en la industria.

Las principales ventajas de la electrónica molecular frente a la electrónica tradicional basada en materiales inorgánicos como el silicio son facilidad de fabricación, maleabilidad, bajo coste y mayor escala de integración.

Gran parte de nuestra actividad cotidiana implica la utilización de dispositivos que funcionan gracias a componentes electrónicos. Estos componentes se han perfeccionado durante las últimas cuatro décadas utilizando básicamente materiales semiconductores inorgánicos, entre los cuales el silicio es el protagonista indiscutible. Sin embargo, la tecnología del silicio tiene sus limitaciones y, desde principios de los años noventa, se está dedicando un gran esfuerzo científico al desarrollo de una nueva electrónica basada en la utilización de materiales moleculares electroactivos. Estos materiales son de naturaleza orgánica, incluyendo desde moléculas de pequeño tamaño (10 átomos) hasta polímeros (macromoléculas), y son capaces de responder a estímulos eléctricos y luminosos de forma similar a los conductores y semiconductores inorgánicos.

Sin lugar a dudas, el acontecimiento que más ha contribuido al desarrollo de los materiales moleculares electroactivos fue el descubrimiento de los polímeros conductores (plásticos que conducen la electricidad), merecedor del premio Nobel de Química del año 2000. Siempre nos han enseñado, y nuestra experiencia cotidiana así lo confirma, que los plásticos, a diferencia de los metales, no conducen la corriente eléctrica. De hecho, los plásticos se utilizan para aislar los hilos de cobre en el cableado eléctrico. Esta perspectiva ha cambiado en los últimos años con el descubrimiento de que ciertos plásticos (polímeros conjugados con alternancia de simples y dobles enlaces carbonocarbono, Nos encontramos, por tanto, ante nuevos materiales que nos ofrecen las propiedades eléctricas y ópticas de los metales y semiconductores, junto con las atractivas propiedades mecánicas, las ventajas de procesado y el bajo coste económico de los polímeros. A estas ventajas hay que añadir el gran potencial de la síntesis química para modificar las propiedades del material mediante cambios en la estructura química de los sistemas componentes.

Los materiales moleculares electroactivos están siendo desarrollados industrialmente para su utilización en aplicaciones tan diversas como baterías orgánicas, músculos artificiales, pantallas de teléfonos móviles, células solares, narices electrónicas, etc …

https://ociointeligente.wordpress.com/2011/11/17/el-futuro-sustituto-del-silicio-grafeno-o-molibdenita/
 
https://ociointeligente.wordpress.com/2011/11/03/grafeno-el-material-del-futuro/

Es una teoría que intenta probar que cualquiera en la Tierra puede estar conectado a cualquier otra persona del planeta a través de una cadena de conocidos que no tiene más de cinco intermediarios (conectando a ambas personas con sólo seis enlaces) o más popularmente que “el mundo es un pañuelo”. La teoría fue inicialmente propuesta en 1930 por el escritor húngaro Frigyes Karinthy en un cuento llamado Chains. El concepto está basado en la idea de que el número de conocidos crece exponencialmente con el número de enlaces en la cadena, y sólo un pequeño número de enlaces son necesarios para que el conjunto de conocidos se convierta en la población humana entera.

Recogida también en el libro “Six Degrees: The Science of a Connected Age” del sociólogo Duncan Watts, y que asegura que es posible acceder a cualquier persona del planeta en tan sólo seis “saltos”.

Según esta teoría, cada persona conoce de media, entre amigos, familiares y compañeros de trabajo o escuela, a unas 100 personas. Si cada uno de esos amigos o conocidos cercanos se relaciona con otras 100 personas, cualquier individuo puede pasar un recado a 10.000 personas más tan sólo pidiendo a un amigo que pase el mensaje a sus amigos.

Estos 10.000 individuos serían contactos de segundo nivel, que un individuo no conoce pero que puede conocer fácilmente pidiendo a sus amigos y familiares que se los presenten, y a los que se suele recurrir para ocupar un puesto de trabajo o realizar una compra. Cuando preguntamos a alguien, por ejemplo, si conoce una secretaria interesada en trabajar estamos tirando de estas redes sociales informales que hacen funcionar nuestra sociedad. Este argumento supone que los 100 amigos de cada persona no son amigos comunes. En la práctica, esto significa que el número de contactos de segundo nivel será sustancialmente menor a 10.000 debido a que es muy usual tener amigos comunes en las redes sociales.

Si esos 10.000 conocen a otros 100, la red ya se ampliaría a 1.000.000 de personas conectadas en un tercer nivel, a 100.000.000 en un cuarto nivel, a 10.000.000.000 en un quinto nivel y a 1.000.000.000.000 en un sexto nivel. En seis pasos, y con las tecnologías disponibles, se podría enviar un mensaje a cualquier individuo del planeta. Por ejemplo, imaginemos un limpiabotas de la calle. Este limpiabotas conoce a un portero de un hotel de dos estrellas; dicho portero conoce al dueño del hotel y éste al dueño de un hotel más prestigioso; el dueño de este hotel conoce a una persona que trabaja en la Casa Blanca y esta persona conoce al presidente de los Estados Unidos. En unos pocos enlaces se ha conseguido ligar un limpiabotas con el presidente de los Estados Unidos.

Evidentemente cuantos más pasos haya que dar, más lejana será la conexión entre dos individuos y más difícil la comunicación. Internet, sin embargo, ha eliminado algunas de esas barreras creando verdaderas redes sociales mundiales, especialmente en segmentos concretos de profesionales, artistas, etc.

Historia

En la década de los 50, Ithiel de Sola Pool (MIT) y Manfred Kochen (IBM) se propusieron demostrar la teoría matemáticamente. Aunque eran capaces de enunciar la cuestión “dado un conjunto de N personas, ¿cual es la probabilidad de que cada miembro de estos N estén conectados con otro miembro vía k1, k2, k3,…, kn enlaces?”, después de veinte años todavía eran incapaces de resolver el problema satisfactoriamente.

En 1967, el psicólogo estadounidense Stanley Milgram ideó una nueva manera de probar la teoría, que él llamó “el problema del pequeño mundo”. El experimento del mundo pequeño de Milgram consistió en la selección al azar de varias personas del medio oeste estadounidense, para que enviaran tarjetas postales a un extraño situado en Massachusetts, situado a varios miles de millas de distancia. Los remitentes conocían el nombre del destinatario, su ocupación y la localización aproximada. Se les indicó que enviaran el paquete a una persona que ellos conocieran directamente y que pensaran que fuera la que más probabilidades tendría, de todos sus amigos, de conocer directamente al destinatario. Esta persona tendría que hacer lo mismo y así sucesivamente hasta que el paquete fuera entregado personalmente a su destinatario final.

Aunque los participantes esperaban que la cadena incluyera al menos cientos de intermediarios, la entrega de cada paquete solamente llevó, como promedio, entre cinco y siete intermediarios. Los descubrimientos de Milgram fueron publicados en “Psychology Today” e inspiraron la frase “seis grados de separación”. El dramaturgo John Guare popularizó la frase cuando la escogió como título de su obra en 1990. Sin embargo, los descubrimientos de Milgram fueron criticados porque éstos estaban basados en el número de paquetes que alcanzaron el destinatario pretendido, que fueron sólo alrededor de un tercio del total de paquetes enviados. Además, muchos reclamaron que el experimento de Milgram era parcial en favor del éxito de la entrega de los paquetes seleccionando sus participantes de una lista de gente probablemente con ingresos por encima de lo normal, y por tanto no representativo de la persona media.

Los seis grados de separación se convirtieron en una idea aceptada en la cultura popular después de que Brett C. Tjaden publicase un juego de ordenador en el sitio web de la University of Virginia basado en el problema del pequeño mundo. Tjaden usó la Internet Movie Database (IMDb) para documentar las conexiones entre diferentes actores. La Revista Time llamó a su sitio, “The Oracle of Bacon at Virginia”,1 uno de los “Diez mejores sitios web de 1996”. Programas similares se siguen usando hoy en clases de introducción de ciencias de la computación con la finalidad de ilustrar grafos y listas.

En 2011 la empresa Facebook realizó un estudio con todos los usuarios activos de su página en ese momento 721.000.000 miembros (alrededor del 10% de la población mundial) y se analizó el conjunto de amigos en común, para sacar el promedio de cuántos eslabones hay entre cualquier usuario y otro cualquiera. De esta prueba se excluyó a celebridades y famosos. Los resultados mostraron que el 99,6% de pares de usuarios estuvieron conectados por 5 grados de separación. Esta es la prueba más cercana de la teoría a la fecha de hoy y da un resultado aproximado de 4,75 eslabones.

Fuente: Wikipedia

%d bloggers like this: