MENU
EGM.
marzo 2010 /
Publicación semestral. ISSN: 1988-3927. Número 6, marzo de 2010.

¿El hombre de barro se está volviendo listo?

De la arcilla al silicio, breve reflexión sobre seres y enseres artificiales
Mirko Lampis
Share on FacebookShare on Google+Tweet about this on TwitterEmail this to someonePrint this page

El deseo de construir o crear algo “inteligente” y el miedo a que este algo resulte superior, o incluso se rebele, a sus propios creadores no son ciertamente una novedad de la era de las máquinas digitales: representan una aspiración y un temor que se han reflejado de manera constante en el arte, el mito y la especulación científica a lo largo de la historia.

Puede resultar curioso, por tanto, el hecho de que nosotros mismos tengamos, según el relato bíblico de la génesis y muchas otras narraciones míticas, un origen “artificial”: Dios creó al primer ser humano directamente del barro. Así como resulta curioso el hecho de que ya esa primera animación de la materia inerte conllevara no pocos problemas: Adán, como tantos otros seres creados por sus descendientes, pronto acabó cuestionando los límites a él impuestos por el divino hacedor. Los seres humanos, en otros términos, no perdimos el paraíso mordiendo, pecaminosamente, un fruto que por capricho divino se nos había vedado, y así se lo explica a Dante el espíritu (tomista extremado) del apóstol San Juan. La alegoría bíblica devela otro sentido:

Or, figliuol mio, non il gustar del legno
fu per sé la cagion di tanto essilio,
ma solamente il trapassar del segno (Paradiso, XXVI, 115-117).
[Ahora, hijo mío, no el gustar de la planta
fue por sí razón de tanto exilio,
sino tan sólo un traspasar del signo.]

Pretender superar los límites cognoscitivos establecidos por el creador, querer saber más de lo lícito, así los humanos perdimos nuestro sitio en el orden que rige el universo. Nos condenó nuestro afán de conocimiento, nuestro vano orgullo intelectual. “Dichosos sean los pobres de espíritu” y “contentaos, humanas gentes, al quia”, una lección que no aprendieron bien ni Lucifer ni Eva, ni Prometeo ni Ulises, ni Faust ni Don Juan, con las consecuencias que todos recordamos.

Ahora bien, la posibilidad de crear la vida, algo que teóricamente debería ser competencia exclusiva de divinidades y demiurgos, siempre ha fascinado a los humanos. Los alquimistas de la Edad Media, junto a la piedra filosofal y al elixir de la vida eterna, buscaban el secreto para animar a la materia inerte. El mito más famoso en este sentido es el del rabino cabalista Judah Löw Ben Bezalel, quien en 1580, en el gueto de Praga, consiguió alentar una estatua de arcilla escribiéndole el nombre secreto de Dios en la frente y entre los dientes, para defender a los judíos de sus perseguidores. Pero el “golem” (literalmente ‘embrión’, y de ahí ‘masa informe’, ‘ser torpe’) acabó matando de manera indiscriminada a los hombres, con lo cual el rabino Löw se vio obligado a destruirlo quitándole el nombre de Dios.

Sin embargo, ni el Homunculus de la tradición alquímica (luego retomado, como es sabido, por Goethe y por algunos filósofos contemporáneos) ni el Golem del rabino Löw pueden definirse, con rigor, como criaturas inteligentes. En cambio, sí resulta inteligente el “monstruo” ensamblado por Víctor Frankenstein en la homónima novela escrita por Mary Shelley en 1818, en opinión de muchos la primera de ciencia-ficción de la historia de la literatura.

Si sus representaciones cinematográficas recuerdan con claridad al golem y nos proponen seres de movimientos torpes, de bajo intelecto y tercos en la maldad (visión parodiada estupendamente en 1974 por Mel Brooks en su Frankenstein Jr.), la realidad descrita en la novela es bien distinta. Para empezar, no es la criatura la que se rebela contra su creador, sino el creador el que, asustado por la impiedad de sus actos, abandona a la criatura. Ésta, sin embargo, logra sobrevivir. Aprende a hablar. A leer. Descubre que existen la belleza y el amor. Y se da cuenta entonces de su deformidad, de su diversidad, de su soledad. Si al final decide enfrentarse a su creador, es para pedirle tan sólo lo que toda criatura pretende: algún congénere, alguien con quien poder compartir la existencia, en suma: una pareja. El “monstruo” llega a odiar a Frankenstein, su creador, porque éste se niega a ayudarle, no quiere aceptar la responsabilidad de su mismo acto creativo. La criatura antes intenta chantajearlo, y finalmente se venga de él.

El “monstruo” de Frankenstein es más fuerte y más inteligente que los seres humanos. Su aspecto exterior es terrible, pero sus cualidades intelectivas innegables. Y sus pretensiones, como el mismo Frankenstein reconoce, absolutamente legítimas. No obstante, la idea de poder crear para él una compañera aterroriza al pobre doctor: si las dos criaturas llegaran a aparearse, eso representaría el comienzo de una nueve especie de seres inteligentes. Una especie en grado perfecto de enfrentarse a los humanos. Y de suplantarlos. Este último, con toda certeza, representa un miedo ancestral del hombre, con respecto no sólo a lo artificial, sino a todo lo “diverso”. Somos nosotros la especie dominante, el hecho de poder ser suplantados por algo o alguien más fuerte, más inteligente, más hábil, nos llena de desconcierto y horror.

Quizá otro síntoma típico de este miedo sea la desconfianza que nos inspiran esas máquinas diseñadas y construidas para llevar a cabo algún tipo de “trabajo humano”. Desconfianza, y hasta odio y rechazo, hacia la competencia desleal de los nuevos artilugios, o hacia unas prácticas percibidas como alienantes o deshumanizadoras, pero también fascinación, entusiasmo por el ritmo inalcanzable del progreso, voluntad de seguir barriendo límites. Para bien y para mal, las máquinas, compañeras a veces incómodas, pero indiscutibles, de la deriva de nuestra especie desde un lejano origen hasta hoy en día, han venido ocupando un lugar cada vez mayor en las historias, mitos e imaginarios humanos.

Podemos recordar, por ejemplo, que en la Iliada se cuenta que Hefesto, el divino artífice, poseía dos mujeres de oro que le ayudaban en las tareas de la fragua, y que Dédalo, antes de diseñar la vaca que le sirvió a Pasifae para engañar al toro, el laberinto donde se encerró el “monstruo” que nació de ese amor bestial y las alas que condenaron a su mismo hijo Ícaro, construyó un gigante mecánico, Talos, cuya función era la de defender las costas de Creta (y que luego fue neutralizado por Medea para permitir a los argonautas desembarcar en la isla). Seres mecánicos que recuerdan, pese a su origen divino o mágico, los juguetes automáticos que recorrieron las cortes y las plazas de Europa en el siglo XVIII, el siglo de los relojes y de los autómatas.

Sin embargo, sólo en el siglo XX, con la aparición de los primeros ordenadores y de la tecnología digital, el problema de la “competencia artificial” se ha desplazado con fuerza al terreno de lo mental y de lo intelectivo. Una cuestión a la que habría que dedicar un atento y exhaustivo análisis, sobre todo en relación con los siguientes tres puntos:

  1. El pensamiento racionalista. Así definen Winograd y Flores (1986) aquella tradición ideológica (desde Aristóteles hasta Descartes, desde Leibniz a Babbage, de Boole a los lógicos modernos) que identifica los fundamentos del conocimiento humano con la matemática y la lógica: el conocimiento racional consiste en un sistema de elementos y fórmulas elementales portadoras de información (los primitivos semánticos) y en una serie de reglas estructuradas de composición, combinación y derivación de estos elementos y fórmulas. No está de sobra recordar que fue George Boole, a mediados del siglo XIX, quien decidió reinterpretar la lógica aristotélica, las “leyes del pensamiento”, en términos matemáticos y que su álgebra de tipo binario (“1” y “0” = “V” y “F”) fue utilizada por Shannon, a finales de los años treinta del siglo XX, para describir el comportamiento de los circuitos eléctricos y por McCulloch y Pitts, algunos años más tarde, para formalizar el comportamiento de las neuronas del sistema nervioso. En cualquier caso, pese a la fascinación científica que puede ejercer la idea racionalista, hay motivos para creer que el pensamiento y la razón humana, con toda su lógica y con toda su inteligencia, no existen sin, ni pueden ser abstraídos totalmente de, los procesos emocionales (Damasio, 1994), la acción en el mundo (Varela, 1988) y el aprendizaje cultural (Lotman, 1978); sencillamente, puede que el racionalismo y el positivismo lógico defiendan unos supuestos teóricos demasiado abstractos y simplificadores.

  2. Según la tradición racional-positivista, el pensamiento humano responde, en última instancia, a leyes mecanicistas, regulares, necesarias y, por tanto, formalizables y reproducibles. Lo que nos lleva a la provocadora pregunta formulada en 1950 por el matemático inglés Alan Turing: ¿pueden pensar las máquinas? Si el cerebro es un sistema físico capaz de manipular determinados elementos informativos discretos (de computar determinados símbolos que representan estados del mundo), y si la mente no es sino una estructura de manipulación informacional (de computación de símbolos y representaciones), entonces las leyes que nos permiten formalizar y manejar estructuras artificiales de información también nos permiten describir los procesos de la mente y del pensamiento. Y una vez descritos estos procesos, intentar reproducirlos mediante estructuras y procesos artificiales. Así, la metáfora del ordenador, es decir, la analogía mente-programa, sirve igual de bien para explicar los secretos de la mente (cognitivismo y funcionalismo computacional) que para diseñar sistemas artificiales inteligentes (paradigma simbólico de la Inteligencia Artificial) (Putnam, 1960; Newell, 1973; Rivière, 1988). Sin embargo, no está demostrado que el cerebro, y la mente como propiedad general del cerebro, sean sistemas computables, es decir, formalizables en términos de elementos y relaciones lineales entre elementos; la actividad cerebral se asemejaría, más bien, a la de un sistema complejo en el que las dinámicas de conjunto modifican constantemente el operar de los microcomponentes y cuya deriva estructural (ontogenia) y funcional (transiciones de estado) incluye procesos aleatorios, y por ende imprevisibles, no-computables, de diferenciación (Searle, 1991; Freeman, 1999; Edelman, 2004).

  3. Los seres humanos y las máquinas participamos en un único proceso de deriva. Es decir, entre los factores que han determinado la deriva cultural, e incluso física, de nuestra especie, contamos con la invención, difusión y modificación de determinadas herramientas de trabajo. Toda tecnología, es sabido, se inserta en y modifica la red de relaciones que se establecen entre nuestro cuerpo y su entorno físico, social y cultural. No obstante, no se trata de defender, como hace Mazlish (1993), algún tipo de continuidad ontológica entre humanos y máquinas sino, más bien, de reconocer que carece de sentido hablar de la utilidad o de la inteligencia de las máquinas (de una tecnología cualquiera) sin considerar la red cultural y las condiciones históricas en las que estas máquinas se producen, comercializan, emplean e interpretan. Como agudamente señaló Rossi-Landi, las computadoras, así como todo producto tecnológico, “no forman una comunidad propia, no son individuos que participen en redes de relaciones externas independientemente de los hombres que las han construido y las hacen funcionar” (Rossi-Landi, 1970: 135). Una tecnología no es inteligente, por tanto, porque al parecer imita o reproduce (o incluso explica, o mejora) este o aquel proceso cognitivo humano; lo es, en cambio, cuando se inserta de manera productiva (de manera creativa) en un hipertexto sociotécnico (Lèvy, 1990), es decir, en una red de relaciones culturales que regulan el uso y la producción de herramientas, intelectuales y no, y que de forma global definen una manera de operar en el mundo y conocer el mundo. Sin que esto, por supuesto, nos prevenga acerca de las posibles consecuencias a largo plazo, positivas o negativas, que se derivarán del uso masivo de tal o cual tecnología.

Se trata, evidentemente, de temas complejos, a cuyo tratamiento se ha de dedicar un tiempo y un espacio incompatibles con los objetivos más humildes de este artículo. Me gustaría, por tanto, de modo más sencillo, llamar la atención sobre algunos hechos notables que es posible destacar analizando aquellas historias de ficción protagonizadas por los modernos herederos de las criaturas artificiales de antaño (fueran monstruos, Galateas, Golems, Homunculi o Pinochos). Me refiero, pues, a los robots.

Empezaré diciendo que la palabra misma, robot, tiene un origen literario. Con la acepción de “dispositivo mecánico de rasgos (aproximadamente) humanoides capaz de desempeñar una determinada labor” apareció por primera vez en la obra teatral R.U.R. (1920) del dramaturgo checo Karel Čapek. Las iniciales del título de la pieza significan “Robots Universales de Rossum”. Rossum es el protagonista, un empresario inglés que decide producir una línea de seres mecánicos destinados al mundo del trabajo, una nueva y eficiente clase de mano de obra, esclavos artificiales que terminarán, ¿cómo dudarlo?, por rebelarse a sus amos humanos, suplantándolos como especie dominante. El término robot viene, precisamente, del checo robota, “prestación laboral obligatoria” y, de manera genérica, “trabajo manual”. Pues bien, en la versión inglesa de la obra, de 1923, se decidió mantener inalterada la voz robot, que así pasó a significar cualquier dispositivo mecánico, imaginario o real, de ese tipo. No deja de resultar curioso el hecho de que el ingeniero Joseph Engelberger, uno de los dos fundadores de la Unimation Inc., la primera fábrica de robots industriales de la historia, comenzara a interesarse por estas máquinas automatizadas a partir de la lectura de los cuentos sobre robots de Isaac Asimov. Por cierto: también el término robótica tiene un origen literario, ya que lo acuñó el propio Asimov en un relato titulado El círculo vicioso, publicado en 1942 en la revista Astounding Science Fiction y luego incluido en el libro recopilatorio Yo, Robot (1950). Fue en dicho cuento que Asimov enunció, por primera vez, sus famosas tres leyes de la robótica:

  1. Un robot no puede hacer daño a un ser humano, o permitir que un ser humano resulte dañado.

  2. Un robot debe obedecer las órdenes recibidas por los seres humanos, excepto si éstas entran en conflicto con la Primera Ley.

  3. Un robot debe proteger su propia existencia en la medida en que esta protección no sea incompatible con la Primera y la Segunda Ley.

Asimov las introdujo para contrarrestar las legendarias y consolidadas consecuencias del “síndrome de Frankenstein”: gracias a dichas leyes fundamentales de la robótica, los suyos nunca acabarían exterminando a los seres humanos. Además, como el propio escritor recuerda, se trataba de unas leyes no precisamente innovadoras:

En la época en que tracé esas leyes, no me percaté de que la Humanidad había estado empleándolas desde el alba de los tiempos. Sólo que pensaba en ellas como “Las Tres Leyes de las Herramientas”, y ésta es la forma en que deben leerse:

1. Una herramienta debe ser segura para poder emplearla. […]

2. Una herramienta debe llevar a cabo su función, siempre y cuando la realice con seguridad.

3. Una herramienta debe permanecer intacta durante su uso, a menos que se requiera su destrucción por motivos de seguridad, o que su destrucción constituya una parte de sus funciones (Asimov, 1990: 435-436).

En efecto, la mayoría de los robots de Asimov no son sino esto: una herramienta. Así como la mayoría de los “personals computers” que utilizamos en nuestros hogares y en las oficinas de trabajo. Los “cerebros positrónicos” de los robots de Asimov, al igual que los ordenadores, por más complicados que sean poseen un único lenguaje-máquina. Más allá de los parámetros funcionales previstos para ese lenguaje no pueden funcionar. Esto quiere decir que la “inteligencia artificial” de un robot positrónico, o de un ordenador, si bien mucho más rápida y poderosa que la del hombre en determinadas aplicaciones, no puede compararse con la dúctil e inventiva inteligencia del cerebro humano. Aunque puedan “tratar y transmitir información” a un ritmo vertiginoso, estas máquinas son totalmente incapaces de producir información nueva (Lotman, 1981), es decir, crear una relación significante no prevista ni previsible a partir de los códigos y de las reglas de inferencia ya establecidos.

El problema de la creatividad en tanto que rasgo indispensable de los procesos de la inteligencia vuelve a menudo en el mundo ficcional de Asimov. En el cuento Intuición femenina, por ejemplo, un ingeniero roboticista le explica a su jefe que quiere construir uno que pueda analizar los datos disponibles de manera autónoma y formular sus propias conclusiones:

– […] Fijar los circuitos es un proceso muy trabajoso a causa de la importancia que tiene el principio de incertidumbre en las partículas de la masa de positrones y de la necesidad de minimizar el efecto de incertidumbre. Pero, ¿por qué minimizarlo? Si disponemos las cosas de manera que el principio tenga justo el peso suficiente para permitir que los circuitos se interconecten de manera imprevisible…
– Tendremos un robot imprevisible.
– Tendremos un robot creativo (Asimov, 1976: 18).

Esta idea, la de un robot creativo, aparece con particular fuerza en uno de los mejores relatos de Asimov, El hombre bicentenario (1976). El “extraño” comportamiento del robot protagonista de este cuento, Andrew, es el resultado de un error o de una imprecisión en el diseño de su cerebro positrónico. Pero Andrew tiene suerte. Su dueño, el señor Martin, está muy contento con él:

Los nuevos no son tan buenos como tú, Andrew. Los nuevos robots no valen nada. La compañía ha encontrado la manera de construir circuitos más precisos, más exactamente orientados, más profundamente encauzados. Los nuevos robots no se desvían. Hacen aquello para lo cual han sido diseñados y nunca pierden el rumbo. Te prefiero a ti (Asimov, 1976: 191).

¿Qué consecuencias se derivan de los circuitos “menos precisos, orientados y encauzados” de Andrew? En primer lugar, Andrew llega a evidenciar una de las principales propiedades de los sistemas semióticos complejos: la capacidad de convertir los elementos extrasistémicos en sistémicos (Lotman, 1970). En un sistema formalmente definido (como un ordenador), no sólo lo extrasistémico no transmite información, sino que tampoco existe. El lenguaje altamente codificado del sistema representa su único mundo operacional. En esta dirección no hay evolución (autoevolución) posible. Pero Andrew es distinto. Su historia “creativa” empieza en el momento en que la hija pequeña de la familia le da un trocito de madera y un cuchillo para que lo talle. Andrew lo hace, y la belleza del resultado sorprende tanto a la niña como a su padre. Un perplejo señor Martin le pregunta al robot dónde ha copiado el dibujo de la escultura, pero Andrew contesta que no se trata de una copia, sino de una representación geométrica que hacía juego con la textura de la madera. Pues bien, una representación geométrica asociada a (inspirada por) los nudos, líneas e imperfecciones de la madera requiere, precisamente, la conversión de algo extrasistémico (una estructura aleatoria, desordenada, un “ruido”) en sistémico (una estructura geométrica, ordenada, “informativa”). La inserción en el código de elementos extrasistémicos, es decir, la creación de un nuevo código, genera soluciones imprevisibles (creativas) y puede ser descrita como un proceso abductivo (acerca de la noción de abducción, véase Lampis, 2009).

Andrew, sin duda, es capaz de pensar de forma abductiva: empieza a emplear el verbo “disfrutar” para designar lo que siente cuando trabaja en sus creaciones; llega a la conclusión de que un ser dotado de sus capacidades, a pesar de ser artificial, debería ser declarado libre desde el punto de vista legal (ya que desea la libertad); también intuye que los aparatos bioprotésicos que inventa pueden ser utilizados tanto en los humanos (robotizándolos) como en los robots (humanizándolos). Cabe señalar, asimismo, que cuando Andrew llega a interesarse por algún tema, por algún argumento (carpintería, relojería, historia de los robots, ingeniería protésica, etc.), lo que hace es aprender, es estudiar. Esto requiere tiempo e implica de manera necesaria cierto desgaste de energía (aun cuando el tiempo y la energía de que dispone Andrew son infinitamente mayores que los de los humanos).

Por último, Andrew emprende una campaña legal para que se le reconozca como un ser humano de forma oficial. Pero esta vez se trata de una campaña desesperada, y por una razón muy sencilla que también representa uno de los puntos fundamentales del debate acerca de la inteligencia artificial:

– Todo se reduce, pues, al cerebro –dijo Andrew cautelosamente–. Pero ¿tenemos que quedarnos al nivel de células versus positrones? ¿No hay manera de imponer una definición funcional? ¿Es preciso decir que el cerebro está hecho de esto o de aquello? ¿No podríamos decir que el cerebro es algo, cualquier cosa, capaz de un cierto nivel de razonamiento?

– No serviría –dijo Li-Hsing–. Tu cerebro es obra del hombre, el cerebro humano, no. Tu cerebro ha sido construido, el suyo se ha desarrollado. Para cualquier ser humano decidido a mantener la barrera que le separa de un robot, esas diferencias constituyen una muralla de acero de un kilómetro de altura y otro tanto de espesor (Asimov, 1976: 226).

Andrew ha sobrevivido a seis generaciones humanas y sabe de forma clara que, tarde o temprano, necesariamente, los seres humanos terminan de funcionar. El cerebro muere, debe morir, y si lo que una persona hace tiene algún valor, lo tiene sobre todo porque esta persona se desgasta mientras lo hace: la acción, el conocimiento y la vida son un único proceso. Así que, para superar la última barrera que le separa de su humanidad, Andrew se dirige a un cirujano robot y le “ordena” que le opere para que su cerebro positrónico pierda potencial. De modo que se apague. Que muera. Sin falta.

Cabría preguntarse por qué un robot, o un ordenador, debería desear ser un hombre. ¿Por qué debería desear cualquier cosa? Un robot, como un ordenador, es algo que cumple con su función. Y aquí se acaba el cuento. Andrew le pregunta al cirujano que le operará si nunca ha ansiado ser un hombre. “Lo mejor sería ser mejor cirujano, señor –le contesta la máquina–. No podría serlo siendo un hombre, sólo lo conseguiría siendo un robot más perfeccionado. Me gustaría ser un robot más perfeccionado”. Esto tiene su lógica, claro. Pero la lógica de Andrew es diferente.

Si Andrew fuera un hombre, el cirujano nunca podría intervenirle, dado que la naturaleza perjudicial de la operación entra en conflicto con la Primera Ley (un robot no puede dañar a un ser humano). Pero Andrew es un robot, y es él, por consiguiente, quien viola las leyes fundamentales, y más precisamente la Tercera (un robot debe proteger su propia existencia). Y sin embargo, ¿se trata de una auténtica violación? ¿O no será, más bien, que Andrew reinterpreta la tercera ley? Se trata de elegir entre una larga existencia que ya no siente como suya (la de robot) y otra, aunque breve, conforme a sus aspiraciones y deseos. Es esta última la que Andrew quiere, y debe, proteger. A costa de su vida misma (decisión semejante a la que tomó Aquiles, y todos aquéllos que han resuelto ejercer la eutanasia).

Ahora bien, las características de estos robots ficcionales de Asimov ejemplifican bastante bien algunas de las ideas de Iuri Lotman acerca de los rasgos y procesos que definen a un sistema como inteligente:

  • la creatividad como acto imprevisible, como explosión de sentido;

  • la plasticidad y la complejidad estructural como condiciones fundamentales de los procesos creativos;

  • la importancia del azar en los procesos que crean diversidad;

  • el aprendizaje en tanto que proceso de cambio estructural a través de la experiencia y de la actividad de un ser cognoscente que opera en un determinado dominio interaccional.

A esta lista podemos añadir la heterogeneidad semiótica, es decir, la coexistencia en un mismo sistema de diferentes estructuras cognoscitivas y de diversos lenguajes modelizantes (Lotman, 1981, 1983). Se trata de una noción que también resulta central en otra importante obra de ciencia-ficción, El Neuromante, de William Gibson (1984). En esta novela actúa un sistema de IA compuesto por dos programas distintos e independientes, dos sub-estructuras cuyos nombres en código son Wintermute y Neuromancer. El primero es el sistema operativo, la estructura que planifica y decide, una estructura que puede ordenar de forma muy rápida una gran cantidad de información. Wintermute actúa mediante cálculos estadísticos y estocásticos y por este motivo los seres humanos representan para él una incógnita: los humanos son imprevisibles, “inmorales” y “perversos” (capaces de disfrutar del acto absolutamente gratuito). Neuromancer, en cambio, es una estructura capaz de interpretar la información de manera no-lineal, holística, simultánea. Puede entender el sentido de las danzas de la calle, las danzas de los seres humanos, mucho mejor que Wintermute. No ordena los detalles, no utiliza secuencias discretas de eventos, sino que éstos se le revelan (como se le revelarían a un místico) como partes de una estructura global dotada de significado. De la fusión de estas dos estructuras nace algo distinto, una nueva entidad inteligente más evolucionada y capaz de extender su propio dominio de operacionalidad. Case, el protagonista de la novela, le pregunta a esta nueva entidad qué ha conseguido con la unión de sus dos “personalidades”:

– ¿Y en qué quedamos? ¿En qué han cambiado las cosas? ¿Manejas el mundo ahora? ¿Eres Dios?
– Las cosas no han cambiado. Las cosas son cosas.
– ¿Pero qué haces? ¿Sólo estás ahí? –Case se encogió de hombros, puso el vodka y el shuriken sobre el mueble y encendió un Yeheyuan.
– Hablo con los de mi especie.
– Pero tú eres la totalidad. ¿Hablas contigo mismo?
– Hay otros. Ya he encontrado a uno. Una serie de transmisiones registradas a lo largo de ocho años, en los años setenta del siglo veinte. Hasta que yo aparecí, eh, no había nadie que pudiera responder.
– ¿De dónde?
– El sistema Centauro.
– Vaya –dijo Case–. ¿Sí? ¿De veras?
– De veras (Gibson, 1984: 316).

Abandonando estos mundos de ficción y volviendo al “nuestro”, con frecuencia no menos asombroso, se podría concluir que el sueño contemporáneo (o la pesadilla) de una inteligencia artificial está muy lejos de verse realizado. No han faltado intentos, hasta ahora, más o menos frustrados, pero sobre todo no han faltado conjeturas y objeciones. En cualquier caso, es conveniente recordar que el conocimiento puede ser desvinculado de la estructura que conoce y del contexto en el que conoce sólo en pos de una fuerte operación abstractiva. El diseño de cualquier sistema artificial depende de una modelización específica del operar de la máquina en el mundo y, en el caso de las llamadas tecnologías inteligentes, de la modelización de un determinado formalismo cognoscitivo: ¿Quién conoce? ¿Qué conoce? ¿Cómo conoce? Decisiones que invariablemente toman y cuestionan unos creadores y usuarios humanos que participan en un contexto concreto de producción de sentido.

Bibliografía

Asimov, Isaac (1950). Yo Robot, Barcelona, Edhasa, 1975.

___(1976). El hombre del bicentenario, Barcelona, Martínez Roca, 1989.

___(1981). Sobre la ciencia ficción, Barcelona, Edhasa, 1986.

___(1990). Visiones de robot, Barcelona, Plaza & Janés, 1992.

Clarke, Arthur C. (1968). 2001: Una odisea espacial, Barcelona, Plaza & Janés, 1998.

Damasio, Antonio R. (1994). El error de Descartes. La emoción, la razón y el cerebro humano, Barcelona, Crítica, 1996.

Edelman, Gerald M. (2004). Più grande del cielo. Lo straordinario dono fenomenico della coscienza, Torino, Einaudi.

Freeman, Walter J. (1999). Come pensa il cervello, Torino, Einaudi, 2000.

Gibson, William. (1984). El neuromante, Barcelona, Minotauro, 1989.

Lampis, Mirko. (2009). “Glosario de términos relevantes en los ámbitos de la semiótica, de la biología y de las ciencias cognitivas (I)”, en: El genio maligno. Revista de humanidades y ciencias sociales, 4, pp. 144-184.

Lèvy, Pierre. (1990). Le tecnologie dell’intelligenza. Il futuro del pensiero nell’era dell’informatica, Verona, Ombre Corte, 2000.

Lewontin, Richard C. (1998). Gene, organismo e ambiente. I rapporti causa-effetto in biologia, Roma-Bari, Laterza.

Lotman, Iuri M. (1970). Estructura del texto artístico, Madrid, Istmo, 1982.

___(1978). «El fenómeno de la cultura», en: I.M. Lotman, La semiosfera II. Semiótica de la cultura, del texto, de la conducta y del espacio, Madrid, Cátedra, 1998, pp. 24-41.

___(1981). «Cerebro – texto – cultura – inteligencia artificial», en: I.M. Lotman, La semiosfera II. Semiótica de la cultura, del texto, de la conducta y del espacio, Madrid, Cátedra, 1998, pp. 11-24.

___(1983). «Asimetría y diálogo», en: I.M. Lotman, La semiosfera I. Semiótica de la cultura y del texto, Madrid, Cátedra, 1996, pp. 43-60.

Mazlish, Bruce. (1993). La cuarta discontinuidad. La coevolución de hombres y máquinas, Madrid, Alianza, 1995.

Newell, Allen. (1973). Inteligencia artificial y el concepto de mente, Valencia, Revista Teorema, 1980.

Putnam, Hilary. (1960). «Mentes y máquinas», en: A.M. Turing, H. Putnam y D. Davidson, Mentes y máquinas, Madrid, Tecnos, 1985, pp. 61-101.

Rivière, Ángel. (1988). Objetos con mente, Madrid, Alianza.

Rossi-Landi, Ferruccio. (1970). «Computadoras y cerebros», en: Semiótica y estética, Buenos Aires, Nueva visión, 1976, pp. 133-138.

Searle, John R. (1991). «L’analogia cervello/computer: un errore filosofico», en: G. Giorello y P. Strata (eds.), L’automa spirituale. Menti, cervelli e computer, Roma-Bari, Laterza, pp. 199-213.

Turing, Alan M. (1950). «Maquinaria computadora e inteligencia», en: A.R. Anderson (ed.), Controversia sobre mentes y máquinas, Barcelona, Tusquets, 1984, pp. 11-50.

Varela, Francisco J. (1988). Conocer. Las ciencias cognitivas: tendencias y perspectivas. Cartografía de las ideas actuales, Barcelona, Gedisa, 1990.

Winograd, Terry y Flores, Fernando. (1986). Understanding computers and cognition. A new foundation for design, Norwood, Ablex Publishing Corporation, 1988.

Share on FacebookShare on Google+Tweet about this on TwitterEmail this to someonePrint this page

Comments are closed.