jueves, marzo 27, 2008

Ray Kurzweil, el profeta de la singularidad

Una extensísima nota (en inglés) de Gary Wolf, publicada en Wired, sobre Ray Kurzweil y la singularidad.

Creo que es la segunda vez que trato el tema —ver la entrada anterior sobre la singularidad— y mi opinión no cambió. No obstante, como la idea todavía conserva algún peso —y no sólo en la ciencia ficción del norte (más información en la nota original)–, paso a traducir algunos párrafos de la nota mencionada, en los que se reseña el origen del concepto y el significado que toma en Kurzweil, además de algunas de las objeciones que recibió la idea misma de singularidad.
Kurzweil tomó el concepto de singularidad de la cosmología, en la cual significa un límite en el espacio-tiempo más allá del cual las mediciones estándares no pueden aplicarse —el borde de un agujero negro, por ejemplo—. El matemático John von Neumann fue el primero en utilizar el término para describir un momento crucial en la evolución de la humanidad. Un día, en los '50, mientras conversaba con su colega Stanislaw Ulam, von Neumann comenzó a reflexionar sobre el ritmo cada vez más acelerado del cambio tecnológico, el que, dijo, "tiene el aspecto de acercarse a una singularidad esencial en la historia de la raza más allá de la cual los asuntos humanos como los conocemos no podrían continuar".

Muchos años después, la idea fue retomada por otro matemático, el profesor y escritor de ciencia ficción Vernor Vinge, quien le dio un nuevo enfoque. Vinge conectó la singularidad directamente con las mejoras en el hardware de las computadoras. Esto permite fechar el futuro. Uno puede mirar a la velocidad en que mejoran las computadoras y estimar la fecha en que se llegará a la singularidad. "En un plazo de treinta años, tendremos los recursos tecnológicos para crear una intelegiencia superhumana", escribió Vinge al comienzo de un ensayo de 1993 titulado El advenimiento de la singularidad tecnológica: cómo sobrevivir en la era post-humana. "Poco después, la era humana llegará a su fin". Según Vinge, las máquinas superinteligentes se harán cargo de nuestra propia evolución, creando sucesores aún más inteligentes. Los seres humanos se convertirán en testigos de la historia, algo embotados en comparación con sus dispositivos para tomar cualquier decisión importante.

Kurzweil transformó a la singularidad de una especulación interesante en un movimiento social. Sus exitosos libros —"La edad de las máquinas espirituales" y "La singularidad está cerca"— cubren todos los temas, desde problemas sin resolver en neurociencia hasta el estatus legal de las máquinas inteligentes. Pero el aporte crucial de Kurzweil fue hacer accionable el fin de la era humana: afirmó que si bien la inteligencia artificial hará obsoletos a los seres humanos en sus aspectos biológicos, no hará irrelevante a la conciencia humana. Las primeras inteligencias artificiales [IAs] se crearán, dice, como complementos de la inteligencia humana, modeladas sobre el cerebro humano actual y con el propósito de extender su alcance. Las IAs nos ayudarán a ver y oir mejor, aumentar nuestra memoria y a luchar contra las enfermedades. Finalmente, las IAs harán posible que conquistemos a la misma muerte. La singularidad no nos destruirá, dice Kurzweil. En lugar de destruirnos, nos inmortalizará.

[...]

Entre los expertos es muy discutida la validez de la ley de Moore [la observación del co-fundador de Intel, Gordon Moore, que el número de transistores en un circuito integrado se duplica aproximadamente cada 18 meses]. Kurzweil extiende la ley de Moore hacia el pasado, al comienzo del tiempo, y hacia el futuro, al final del universo. Pero muchos informáticos e historiadores de la tecnología se preguntan si siquiera durará otra década. Algunos sospechan que la aceleración de la potencia de cálculo de las computadoras ya se ha reducido.

Hay también objeciones filosóficas. La teoría de Kurzweil sostiene que las computadoras super-inteleligentes serán necesariamente humanas, porque su modelo será el cerebro humano. Pero hay otros tipos de inteligencia en el mundo —por ejemplo, la inteligencia de las colonias de hormigas— que son ajenas a la humanidad. Concedamos que una computadora o una red de computadoras puede adquirir una conciencia. La conciencia de esta fabulosa AI podría sernos tan incomprensible como la conciencia humana a un protozoario.

Otros pesimistas [esto es, aquellos que no comparten el optimismo de Kurzweil] precisan que el cerebro es más que la capacidad para procesar datos. El cerebro también tiene una cierta configuración, un diseño, y está asociado a un tipo específico de sistema nervioso, que sólo acepta algunas clases determinadas de datos. Incluso aunque nuestros pensamientos adquieran una mayor velocidad de cómputo, aún así podríamos introducirnos en una especie de callejón evolutivo, incapaz de lograr un auto-mejoramiento radical.
Lo curioso es que haya gente que se lo tome en serio. A veces es saludable apagar la computadora.

Nota relacionada: El universo postbiológico.

6 Sofismas:

El dom feb 01, 11:08:00 a.m. 2009, Blogger David escribió...

Creo que la reseña que comentas falla en demasiados argumentos básicos, por ejemplo:

- La inteligencia de las hormigas para nada es ajena a la inteligencia social humana.

- Dos consciencias pueden al menos reconocerse en cuanto consciencia es reconocerse a uno mismo, y por tanto puede suponer reconocer al otro, el primer paso para la comprensión entre ambas.

- Ya existen interfaces de datos hacia áreas del cerebro que funcionan perfectamente como por ejemplo dispositivos para oir sin oido. Y los interfaces son la clave para añadir potencia y funcionalidades al cerebro.

 
El dom feb 01, 03:44:00 p.m. 2009, Blogger el sofista escribió...

Hola David:

En su momento traduje esa reseña porque al menos planteaba argumentos, más allá de que estuviera de acuerdo o no. En particular no me convence la idea misma de la singularidad: el pasaje de lo cuantitativo (la potencia de cálculo) a lo cualitativo (la conciencia) es algo que nunca se aclara, de forma que es más un asunto de fe que una predicción.

Para ser breve, porque no tengo mucho tiempo, elijo para responder el argumento de la conciencia que mencionas: si se parte de la sola conciencia encerrada en sí misma —la mera autoconciencia— no se llega nunca al mundo ni a las otras conciencias como certeza: es el problema insoluble de la modernidad, desde Descartes en adelante. El mundo se recupera, claro, pero por otra vía, la metafísica (el "suponer" que mencionas).

Ciao.

PD: No te olvides de usar la interfaz humana, también llamada cortesía, en el trato con otros seres humanos. Será agradecido el esfuerzo.

 
El dom feb 01, 03:57:00 p.m. 2009, Blogger David escribió...

Buenas tardes distinguido blogero, o sea "hola" en interfaz humano cortés :)

Pretendía arrojar algo análisis sobre los argumentos de esa reseña, y te agradezco el diálogo :)

Discrepo y no comparto que elproblema de la modernidad gire alrededor de la certeza de llegar al mundo, creo que eso es trivial entender que sí hoy en día gracias a la ciencia. Sinó más bién como tu bién planteas mencionando a Descartes, y por supuesto los existencialistas, quienes más se ocupan del problema indisoluble: el no ser, el vacío más allá de la existencia.

 
El lun feb 02, 02:27:00 a.m. 2009, Blogger el sofista escribió...

Hola David: Creo que has interpretado mal mi comentario. El yo cartesiano, el cogito, es la certeza sobre la que se asienta el mundo, pero es un yo aislado, encerrado en sí mismo, que sólo puede recuperar el mundo recurriendo a procedimientos menos rigurosos de los empleados para llegar al cogito, esto es, admitiendo supuestos. En este sentido, el reconocimiento de otras mentes o conciencias —que es el punto en discusión— no es una certeza en la concepción cartesiana, es un supuesto.

 
El sáb ene 02, 11:39:00 p.m. 2010, Blogger Kuznacit escribió...

Valdría la pena leer tambien al respecto el libro de "La Nueva Mente del Emperador" de Roger Penrose tal vez el trabajo mas profundo y esceptico que existe en cuanto a la posibilidad de la IA fuerte con las tecnologias actualmente existentes. La verdad es que son fascinantes y muy paradojicos los argumentos a favor de IA fuerte y Penrose los describe y enumera muy bien y de forma bastante exhaustiva.

No soy un partidario de las ideas de Kurzweil pero debo admitir que me fascinan sus ideas, mas aun despues de haber visto Ghost in the Shell 1 y 2 (la pelicula) definitivamente, lo mejor en ciencia ficcion.

 
El mar ene 05, 01:12:00 a.m. 2010, Blogger el sofista escribió...

Hola Kuznacti: Casualmente hoy publicaron un reportaje a Kurzweil en h+magazine:

http://www.hplusmagazine.com/articles/ai/ray-kurzweil-h-interview

En la entrevista Kurzweil menciona su oposición a la propuesta de Penrose —la computación cuántica—, y afirma que no se avanzaría en nada con esa tecnología en la comprensión de la naturaleza de la conciencia, que es el tema que le preocupa a Kurzweil.

Hay otros temas interesantes mencionados en el reportaje, incluso menciona la nota que traduje en parte en esta entrada, pero no discute en detalle los argumentos que se le presentaban, más que nada los minimiza de un modo casi paternalista con una analogía: sus críticos son incapaces de comprender a fondo la singularidad, tal es su complejidad, como un hombre de las cavernas sería incapaz de entender una página web.

Un saludo.

 

Publicar un comentario

<< Home