En futurología, la singularidad tecnológica (algunas veces llamada simplemente la Singularidad) es un acontecimiento futuro en el que se predice que el progreso tecnológico y el cambio social se acelerarán debido al desarrollo de inteligencia superhumana, cambiando nuestro ambiente de manera tal, que cualquier ser humano anterior a la Singularidad sería incapaz de comprender o predecir. Dicho acontecimiento se ha nombrado así por analogía con la singularidad espaciotemporal observada en los agujeros negros, donde existe un punto en el que las reglas de la física dejan de ser válidas, y donde la convergencia hacia valores infinitos hace imposible el definir una función.

El tiempo que resta antes de que se llegue a ese fenómeno se acelera con la utilización de máquinas para apoyar tareas de diseño o mejoras de diseño de nuevos inventos.

Historia

Las consecuencias de semejante acontecimiento fueron discutidas durante la década de 1960 por I.J. Good, y John von Neumann quien usa el término “singularidad” para describir el progreso tecnológico durante la década de 1950. Sin embargo, no es sino hasta en los 80s que la Singularidad es popularizada por Vernor Vinge. Si la Singularidad ocurrirá o no, es un hecho muy debatido, pero la aproximación más común entre los futuristas la sitúa dentro de la tercera década del Siglo XXI.

Otros, notablemente Raymond Kurzweil, han propuesto teorías que expanden la Ley de Moore hacia tipos de computación que van más allá de los simples transistores, sugiriendo un patrón exponencial de progreso tecnológico. Sin embargo Kurzweil supone que el propio patrón de crecimiento cambia y la aceleración se hace mayor hasta el punto de adquirir un patrón de crecimiento hiperbólico. Lo cual es análogo al espacio hiperbólico de los agujeros negros. Según Kurzweil, este patrón culmina en un progreso tecnológico inimaginable en el Siglo XXI, el cual conduce a la Singularidad, un punto en el cual el crecimiento se hace infinito.

El crecimiento hiperbólico es el patrón que algunos indican que sigue el aumento de la información y de hecho ha sido el ritmo en como ha venido creciendo la población mundial por lo menos hasta principios de siglo. Robert Anton Wilson generalizo la ley del crecimiento de la información bajo el nombre del fenómeno del Jesús saltador, que se inspira en la idea de comenzar a contar los años a partir del nacimiento de Jesús, aunque también parece un nombre irónico y humorística, porque a medida que pasa el tiempo no son pocos los que siguen pensando en el fin del mundo y la inminente llegada de Jesús. Según Wilson, se inspiro en Alfred Korzybski, el autor de la Semántica General, quien habría observado que la información se duplicaba cada cierto tiempo. Korzybski tomo como base, de todo el conocimiento acumulado y disponible por la humanidad, el año 1 después de cristo, Wilson le llama el primer Jesús. La primera duplicación se habría dado durante el apogeo del renacimiento, con lo que se tendrían entonces 2 Jesús. La segunda en el año 1750, 4 Jesús y las siguientes en los años, 1900, 1950, 1960, 1967 y 1973 (128 Jesús). Para el 2000 se calculaba que la información se duplicaba 2 veces en un año. Sin embargo de acuerdo a otro estudio realizado por la Universidad de Berkeley en el año 2004 por los profesores Peter Lyman y Hal Varian, a instancias de Microsoft Research, Intel, HP y EMC, la información que se genera y se registra en el mundo aumenta a un ritmo de solamente 30% anual desde 1999.

Superestructura tecnológica

Las discrepancias surgen a partir de la consideración que se tenga sobre el impacto tecnológico en la sociedad. Si creemos que las tecnologías siempre serán una infraestructura controlada por los humanos o aceptamos que dado su crecimiento acelerado, su cada vez mayor autonomía y su creciente inteligencia (a lo cual no se le ve limites), se pueda aceptar que se convertirán en una superestructura capaz de compartir las decisiones con los humanos.

Por lo que tendremos cuatro enfoques:

1) Los que creen que la tecnología siempre será controlada por los humanos y el único peligro esta en el mal uso que se le dé. Por lo que basta con limitar, prohibir o controlar la utilización de las mismas Desarrollo sostenible.
2) Los que creen que las tecnologías igualarán y superarán a los humanos, surgiendo una superinteligencia. Singularidad tecnológica
3) Los que aceptan que las tecnologías podrán ser una superestructura y creen que dado el contexto actual de poder, estas se convertirían en un competidor demasiado peligroso para los humanos, por lo cual hay que hacer todo lo posible para que esto no suceda. Bioconservadurismo
4) Los que ven a la tecnología como una aliada que nos pueda llevar a una superinteligencia colectiva donde humanos y tecnologías cooperen por un futuro sostenible Sostenibilidad tecnológica

Inteligencia suprahumana

La idea de una singularidad, Vinge la sustenta sobre la ley de Moore que dice que la capacidad de los microchips de un circuito integrado se duplicará cada dos años, lo cual traerá un crecimiento exponencial de la potencia del hardware de las computadoras y de mantenerse este crecimiento acelerado conducirá inevitablemente a que las maquinas le den alcance y luego superen la capacidad del cerebro para procesar la información y según un grafico elaborado por Hans Moravec, la paridad entre el hardware y el cerebro se alcanzará alrededor del 2020 lo cual dará lugar a las maquinas ultra inteligentes.
Vinge define una máquina ultra inteligente como una máquina capaz de superar en mucho todas las actividades intelectuales de cualquier humano independientemente de la inteligencia de este y está convencido de que esa inteligencia superior será la que impulsará el progreso y este será mucho mas rápido e incluso superará a la actual evolución natural, por lo que aparecerán problemas miles de veces más deprisa que la selección natural y afirma que estaremos entrando en un régimen radicalmente diferente de nuestro pasado humano, y es a este evento al que le da el nombre de singularidad.
El transhumanista Nick Bostrom define una superinteligencia de la siguiente forma: Tendrá superinteligencia cualquier intelecto que se comporte de manera bastamente superior en comparación con los mejores cerebro humanos en prácticamente todos los aspectos y en especial estos tres:

• Creatividad científica
• Sabiduría en general
• Desempeño científico


Esta definición deja abierta la manera de como se implementa esa superinteligencia
• Artificial: una computadora digital
• Colectiva: una red de computadoras
• Biológica: cultivo de tejidos corticales
• Híbrida: fusión entre computadoras y humanos

Caminos hacia la singularidad

Según el científico y escritor de ciencia ficción Vernor Vinge, la singularidad se puede alcanzar por diferentes caminos:

  • El desarrollo de un computador que alcance el nivel de inteligencia humana y posteriormente lo supere (superinteligencia artificial).
  • El desarrollo de redes de computadoras que se comporten como superneuronas de un cerebro distribuido que “despierte” como ente inteligente (superinteligencia colectiva).
  • El desarrollo de elementos de interacción con computadoras que permitan a un humano comportarse como un ser superinteligente (superinteligencia hibrida).
  • Manipulaciones biológicas que permitan mejorar en algunos seres el nivel humano de inteligencia (superinteligencia biológica)

Superinteligencia artificial

Surgimiento de una superinteligencia artificial superior a la inteligencia humana. Estamos hablando de que los humanos sean capaces de construir una inteligencia artificial que los iguale y que después, esta inteligencia no humana, sea capaz de superarse a si misma. Dado el crecimiento veloz que tiene el hardware (ley de Moore) y no en el desarrollo de programas que emularan la inteligencia humana como se pretendía en los primeros años de la Inteligencia artificial. Estamos hablando de una inteligencia artificial fuerte que supone que la consciencia es codificable (consideran que los estados mentales son algoritmos altamente complejos) y puede ser descargada del cerebro y copiada en un soporte digital.

Superinteligencia colectiva

Surgimiento de una superinteligencia colectiva donde estén conectados en redes los humanos y las maquinas, siguiendo las ideas de Pierre Levy de una inteligencia colectiva, en la que Internet esta jugando un papel importante y ya algunos están hablando del surgimiento de un cerebro global que se esta formando desde ahora en el contexto de la Web 2.0 y de la naciente Web 3.0. No se puede ignorar el impacto que esta teniendo la Web 2.0 y la gran cantidad de conocimiento que se esta compartiendo en las Wikisredes sociales y blogs y que se podrían ir autoorganizado por medio de laWeb semántica. Lo cual nos lleva a una superestructura tecnológica donde humanos y maquinas cooperan entre si.

Superinteligencia hibrida

Superinteligencia hibrida, Interconexión entre humanos y computadoras, tales como, prótesis, implantes de chip, etc. Lo cual nos lleva al Cyborg, donde se fusionan los humanos con las maquinas. La idea de una transhumanidad que transcienda a la condición humana y con ello superar todos los límites de la especie humana y dar surgimiento a una nueva especie posthumana. Esto nos arrastra a una singularidad fuerte donde humanos y maquinas se fusionan.

Superinteligencia biológica

Superinteligencia biológica, mejoramiento humano por bioingeniería sobre todo modificaciones genéticas, dado que es una inteligencia mejorada por medio de la biología. Se aspira al humano mejorado (humano+) por medio de la bioingeniería. Esto ira conduciendo a la humanidad a una fusión progresiva y menos radical que la anterior.

Si bien algunos autores, como Roger Penrose, piensan que las computadoras no llegarán a ser inteligentes (en el sentido de la prueba de Turing), el camino biológico para llegar a la singularidad tecnológica no parece tener límite alguno.

Riesgos

Los defensores de la singularidad son conscientes de las amenazas que esta implica y consideran los siguientes riesgos existenciales:

• Inteligencia artificial mal programada.

• Mal uso de la nanotecnologia.
• Mala utilización de la biotecnología.
• Uso generalizado de las prótesis (convirtiéndose en un robot)
• Tecnologías autónomas que se escapan de las manos (maquinas que se auto construyen a si mismas)

De aquí que sacan la conclusión que es necesario tomar el control de la evolución humana y abalanzar hacia una transhumanidad. Proponen la sustitución de una especie humana obsoleta por otra especie “superior” con poderes ilimitados y que por medio de las tecnologías emergentes o convergentes (NBIC) se puede alcanzar la posthumanidad.
Fuente: Wikipedia