Pages - Menu

16/12/2014

En dirección hacia una inevitable Singularidad Tecnológica. Ahora, ¿que hará el ser humano para controlar sus consecuencias?


La singularidad tecnológica se daría en un hipotético punto a partir del cual, una civilización tecnológica, estaría frente a una aceleración tal, de su progreso tecnológico, que provocaría una incapacidad (de dicha civilización) para predecir sus consecuencias. ¿Qué pasaría si los humanos creásemos una maquina mas inteligente que los humanos mismos?

La futurología (que según la Organización para la Cooperación y el Desarrollo Económicos (OCDE) la define como el conjunto de tentativas sistemáticas para observar e integrar a largo plazo el futuro de la ciencia, la tecnología, la economía y la sociedad con el propósito de identificar las tecnologías emergentes que probablemente produzcan los mayores beneficios económicos o sociales) define a la singularidad tecnológica (algunas veces llamada simplemente la Singularidad) como un evento futuro en el que se predice que el progreso tecnológico y el cambio social acelerarán debido al desarrollo de inteligencia "super humana", cambiando nuestro ambiente de manera tal, que cualquier ser humano anterior a la Singularidad sería incapaz de comprender o predecir. Dicho evento se ha nombrado así por analogía con la singularidad gravitacional observada en los agujeros negros, donde existe un punto en el que las reglas de la física dejan de ser válidas, y donde la convergencia hacia valores infinitos hace imposible el definir una función. 

Según el científico y escritor de ciencia ficción Vernor Vinge, la singularidad se puede alcanzar por diferentes caminos: 

* El desarrollo de computadoras que alcancen el niveles de inteligencia humanas y posteriormente los supere.

* El desarrollo de redes de computadoras que se comporten como "Redes Neuronales" de un cerebro distribuido que "se reconozca" como un ente inteligente y consciente de su existencia.

* El desarrollo de dispositivos de interfaces con computadoras que permitan al ser humano "transformarse" como un ser mucho mas inteligente. 

* Manipulaciones a niveles biológicos/genéticos que permitan mejorar en algunos seres el nivel de la inteligencia humana.

El tiempo que dista antes de que comience a apreciarse dicho fenómeno se incrementa con la utilización de Software/Hardware que aceleran significativamente las tareas de diseño, o bien mejoras de diseño de nuevos inventos.

Es muy probable que conozcan la Ley de Moore (Michael Moore - Cofundador, vicepresidente y CEO de Intel Corp.), la cual matemáticamente explica o define (en términos modernos y simples) que la capacidad de procesamiento de los microprocesadores se duplica cada dos años. Pero esta Ley de Moore se ha venido cumpliendo (en mayor o menor medida) mientras los humanos hemos estado diseñado las computadoras. Los humanos tenemos que inventar cosas nuevas; otros humanos tenemos que crecer, aprender en la Universidad, inventar otras nuevas, etc.

Pero supongamos que construimos la primer computadora que pueda diseñar otra, en todos sus aspectos, y olvidémonos por un momento de las limitaciones físicas (de las que hablaremos luego). Y supongamos que esa computadora es, más o menos, igual de competente al diseñar a la siguiente, que un ser humano. Entonces, a los dos años tendríamos un ordenador con el doble de su capacidad. Lo que significa que diseñaría a la siguiente "con el doble de capacidad" en sólo un año.

Pero el siguiente sería el doble de capaz que el primero, de modo que sólo tardaría seis meses en doblar su capacidad, el siguiente tres, el siguiente uno y medio … llegaría un momento en el que el único límite para el desarrollo de computadoras más y más inteligentes sería el proceso físico de construcción, porque serían capaces de realizar mejoras en tiempos arbitrariamente cortos: y llegado ese punto, probablemente ya habrían encontrado una solución que realizase mejoras sobre la marcha, o quién sabe … una vez que hubiéramos multiplicado nuestra inteligencia por una potencia de dos, seríamos incapaces de comprender las motivaciones, los razonamientos y los actos de esa inteligencia.

Dicho de otra manera: cuando alguien o algo es un poco más inteligente que un ser humano promedio (en términos de Coeficiente Intelectual y Emocional), puedes darte cuenta de ello y relacionarte con ellos. Pero cuando esa inteligencia es muchísimo más desarrollada o elevada (por ejemplo, la relación entre un ratón y un humano), los conceptos que procesa la inteligencia superior no son comprensibles por la inteligencia inferior. Es muy fácil comprender que alguien/algo haga procesamientos en su cerebro más rápido que uno, pero ¿cómo puede un ratón entender lo que es internet por ejemplo? Eso sería la singularidad tecnológica.

Desde luego, hay muchos pensadores que creen que la idea es ridícula o alejada de la ley de Moore la cual se detendrá en algún momento. De hecho, algunos piensan que el ritmo del progreso tecnológico disminuirá con el tiempo, en lugar de aumentar, o que la humanidad nunca dejará que lleguemos a la singularidad, poniendo límites artificiales al desarrollo de la ultra inteligencia.

Una crítica común es que la miniaturización en los chips de ordenadores tiene un límite físico, que la disipación de calor en los circuitos electrónicos y otros procesos físicos impedirán mantener el ritmo del avance que actualmente presenciamos. Sin embargo, sólo hace falta un avance para que cambie el concepto completamente: puede que sean las redes, la nanotecnología, la computación cuántica, etc. 

Puede incluso ser la biotecnología: ¿Se imagina cambiar nuestro ADN para realizar computación "en binario" en nuestro cerebro, capaz de diseñar ADN nuevo? ¿o un interfaz de red mente-máquina de modo que nuestra inteligencia disponga, en paralelo, de ordenadores capaces de realizar cálculos para nosotros? Es difícil predecir por dónde y de que manera vendrá; si viene, esta singularidad, pero el concepto clave es que, si llega un punto en el tiempo en el que el diseñador es capaz de mejorar, el siguiente diseñador tardará menos tiempo en realizar un mejor diseño.

Las consecuencias de la singularidad, si se produjesen, serían absolutamente impredecibles por su propia naturaleza: no podremos comprender lo que viene después. Lo cual nos coloca en una posición con bastante desasosiego.

Las consecuencias de semejante evento fueron discutidas durante la década de 1960 por I.J. Good, y John von Neumann quien usa el término "singularidad" para describir el progreso tecnológico durante la década de 1950. Sin embargo, no es sino hasta en los 80s que la Singularidad es popularizada por Vernor Vinge. Si la Singularidad ocurrirá o no, es un hecho muy debatido, pero la aproximación más común entre los futuristas la sitúa dentro de la tercera década del Siglo XXI.

Otros, notablemente Raymond Kurzweil, han propuesto teorías que expanden la Ley de Moore hacia tipos de computación que van más allá de los simples transistores, sugiriendo un patrón exponencial de progreso tecnológico que persiste a través de la historia humana (se toma en cuenta el poder de computación de los cerebros humanos), e incluso antes de que siquiera hubiera vida sobre la tierra. Según Kurzweil, este patrón culmina en un progreso tecnológico inimaginable en el Siglo XXI, el cual conduce a la Singularidad. Una vez llegado al punto en que se cree una inteligencia superior a la humana, se entraría en una etapa post humana que probablemente conduzca a la extinción de la humanidad o a su subordinación a esos nuevos entes inteligentes. Esto es lo que los diseñadores que evolucionan según la ley de Michael Moore deberían tener presente SIEMPRE, para que dicha subordinación no se dé nunca.

Si bien algunos autores, como Roger Penrose, piensan que las computadoras no llegarán a ser inteligentes (en el sentido de la prueba de Turing), el camino biológico para llegar a la singularidad tecnológica no parece tener límite alguno.

El Test de Turing (o Prueba de Turing) es una prueba propuesta por Alan Turing para demostrar la existencia de inteligencia en una máquina. Fue expuesto en 1950 en un artículo (Computing machinery and intelligence) para la revista Mind, y sigue siendo uno de los mejores métodos para los defensores de la Inteligencia Artificial. Se fundamenta en la hipótesis positivista de que, si una máquina se comporta en todos los aspectos como inteligente, entonces debe ser inteligente.

La prueba consiste en un desafío. Se supone un juez situado en una habitación, y una máquina y un ser humano en otras. El juez debe descubrir cuál es el ser humano y cuál es la máquina, estándoles a los dos permitido mentir al contestar por escrito las preguntas que el juez les hiciera. La tesis de Turing es que si ambos jugadores eran suficientemente hábiles, el juez no podría distinguir quién era el ser humano y quién la máquina. Todavía ninguna máquina puede pasar este examen en una experiencia con método científico. Una de las aplicaciones de la prueba de Turing es el control de spam. Dado el gran volumen de correos electrónicos enviados, el spam es, por lo general, enviado automáticamente por una máquina. Así la prueba de Turing puede usarse para distinguir si el correo electrónico era enviado por un remitente humano o por una máquina (por ejemplo por la prueba Captcha).

No hay comentarios.:

Publicar un comentario

Muchas gracias por comentar.