Por
Carlos Valdés Martín
Con agudeza polifacética Isaac Asimov deleita en “Yo, Robot”, un relato que renovó su popularidad al ser convertido en película. En esta novela, Asimov nos intriga centrándose en la evolución del robot (tecnológico y ético[1]), su interacción con la humanidad y los principios morales para manufacturar tales ingenios. Las tres leyes de la robótica son la estrella de sus reflexiones chispeantes y agudas, cuando entretejen las fronteras y dificultades entre personas y máquinas de inteligencia artificial.
No encontramos una novela
diseñada en su integridad, sino una serie de cuentos que mantienen su
coherencia, al ligarlos con las entrevistas a Susan Calvin (presentada cual máxima
especialista en psicología de robots) y la continuidad de una empresa líder en
la fabricación robótica, junto con una progresión temporal. Otros personajes
también protagonizan varios capítulos, aunque luego salen de la trama. Los
tipos de robots debutan en variedades cada vez más evolucionadas, desde
uno mudo y tierno especie de mascota-niñera, hasta los que imitan al ser humano
en máxima complejidad y con capacidad de mando; incluso, la hipótesis de fondo plantea
que las máquinas superarán a los hombres, pero se conservarán como sus
sirvientes fieles y casi heroicos[2].
Además, quizá este sea el primer texto en la historia que empleó la palabra
robótica.
La línea temporal posee
su propio interés y permitirá a los admiradores de Asimov otorgarle diversas
interpretaciones. La protagonista se afirma nació en 1982, el mismo año de la
fundación de la ficticia “U.S. Robots & Mechanical Men Inc.” y la
introducción indica que han pasado 65 años, por tanto el relato comienza en el
año 2047. El relato finaliza cuando ella cuenta con 82 años y muere en el 2064.
El texto fue publicado en 1950 cuando muchos temas planteados estaban en
pañales, entonces rayaban en lo irreal los “cerebros positrónicos”[3]
o robots pensantes y parlantes. Por lo mismo, el enfoque no detalla demasiado los
aspectos físicos y técnicos de los robots[4],
sino más sobre su psicología basada en leyes morales, así como la competencia
entre las facultades humanas y las robóticas que terminan siendo adelantadas
por las máquinas.
Capítulo
de Introducción
Explica la biografía y
características del personaje-conductor que es Susan Calvin, la brillante
psicóloga de robots, que encabeza esas tareas en la empresa de robótica más
importante del futuro imaginado. El resto de la novela está basada en una serie
de anécdotas que recuerda la “robotpsicóloga” Calvin y son indagadas por un
reportero.
Otra cara estelar del
relato está en la hipótesis de las Tres Leyes de la Robótica, que son: “1. Un
robot no debe dañar a un ser humano o, por su inacción, dejar que un ser humano
sufra daño. 2. Un robot debe obedecer las órdenes que le son dadas por un ser
humano, excepto cuando estas órdenes están en oposición con la primera Ley. 3.
Un robot debe proteger su propia existencia, hasta donde esta protección no
esté en conflicto con la primera o segunda Leyes.”[5]
En todos los cuentos se hace énfasis en las aplicaciones y posibles
contradicciones de tales Leyes. Cada relato interpreta estas Tres Leyes y sus
casos más críticos, incluyendo el nivel subconsciente o inconsciente[6]
donde están registradas, la posible locura de los robots, su rebelión y sentido
de superioridad ante los humanos, la opción de engañar, etc.
Capítulo
1 Robbie
Describe la relación
entre el robot niñera Robbie y su mimada Gloria. Este robot es mudo, pero
inteligente y físicamente hábil, sirviendo a modo de una niñera-juguete-mascota
que complace a la niña de 8 años. El afecto de Gloria es tan intenso que
provoca el enojo de su madre, quien procura separarlos. La madre encarna los
prejuicios y la desconfianza corriente contra las máquinas, que suele denominar
Asimov como “complejo de Frankenstein”[7].
El padre objeta pero la madre presiona hasta que logra deshacerse de Robbie. La
niña queda desolada y persiste en recuperar a su cuidadora metálica, que es un
modelo de robot mudo. Durante un viaje la pequeña insiste en buscar a su
niñera, hasta que el padre organiza un encuentro en una fábrica de montaje, aunque
sin advertir a su familia. De modo casual surge un peligro de atropellamiento y
Robbie salva a Gloria, con lo cual la madre acepta volver a recibir a la niñera
robótica, y esa anécdota representa que la gente ordinaria supera los
prejuicios contra el futuro. El cuento argumenta que después los robots fueron
confinados a otras funciones, por lo que ya no se permitieron para servir de
niñeras.
Capítulo
2 Runaround
(“Círculo vicioso” o “Sentido Giratorio”)
Expone la aventura en el
planeta Mercurio de una pequeña expedición que está a punto de colapsar. Ante
el peligro por la falla de un campo de protección, la solución es enviar a un
robot llamado Speedy, por veloz, para conseguir selenio en un campo próximo. La
situación se vuelve dramática por una instrucción ambigua. En el planeta
solamente hay dos astronautas, Powell y Donovan (que protagonizan los
siguientes capítulos) quienes desesperadamente requieren conseguir selenio de
una fuente próxima, lo cual solamente lo podría lograr el robot: Pero la
instrucción de conseguir selenio dada con descuido abre un conflicto
irresoluble entre las Leyes 2ª y 3ª entre obedecer y preservarse de un daño,
provocando una especie de estupidez robótica, pues Speedy gira en círculos
alrededor del área sin conseguir nada[8].
Los astronautas montan otros robots “anticuados” y lentos cual vacas mecánicas para
aproximarse a Speedy sobre la —a la vez, candente y congelante— superficie de
Mercurio al intentar salvar la situación. Improvisados vaqueros se exponen al
ambiente mixto del planeta —calcinante y congelante— para convencer a su robot
Speedy que deje de girar insensatamente y cumpla con su cometido. Un chispazo
de ingenio logra sacar al robot del conflicto, al incrementar el potencial de
peligro y disparar la 1ª Ley por el riesgo mortal de un astronauta, para
recuperar al veloz Speedy. Al final, se resuelve el riesgo pues Speedy salva al
astronauta y recupera su “razón”.
Capítulo
3 Razón
El mismo par de
astronautas, queda encargado de una Estación espacial, donde reciben un nuevo
tipo de robots, los Qt, entre los cuales destaca uno que está recibiendo su
programación inicial y llaman Cutie. De modo intrigante el modelo Cutie asume
una actitud curiosa que alude la historia de la filosofía y desconoce a sus
amos humanos como sus creadores. En ese pasaje, mediante el robot curioso
Asimov nos da un paseo por la evolución de las corrientes filosófica repasando
argumentos de Descartes o Kant sin citarlos de modo textual[9].
La programación de estos curiosos robots humanizados incluye una especie de
estudio y autoaprendizaje, que se descarría, pues Cutie se vuelve reticente a
los astronautas y saca sus propias conclusiones, las cuales contaminan a todos
los autómatas de la estación espacial. El robot saca conclusiones al estilo de
parodia religiosa, pues asume que es él criatura del Señor y no de los humanos,
por tanto los relega al ostracismo y luego se declara el profeta del Señor. Por
si fuera poco, también rechaza las explicaciones sobre la existencia de las estrellas
y de la Tierra, cuestionando la utilidad de la Estación, pero anotando que
existe una misteriosa armonía cósmica que debe prevalecer. En ese punto, los
robots parecieran haber extraviado su razón, para convertirse en una especie de
secta religiosa alimentada por argumentos teológicos, lo cual nos debería hacer
pensar en si las religiones tienen algún futuro o en el pasado han servido a
alguna secreta ley de conservación de la especie.
El nudo de este capítulo
se presenta cuando, durante una tempestad de electrones, la Estación espacial
debe enviar un rayo preciso para abastecer a la Tierra y una falla destruiría grandes
regiones del planeta. Aunque pareciera que Cutie ha roto su obediencia a la 1ª
Ley robótica, trata a los humanos cual mascotas, sin obediencia directa pero
cuidando de su sobrevivencia. Cuando Cutie cumple también al abastecer la
Tierra con el rayo preciso y evitando cualquier daño, los astronautas se dan
cuenta que no existe un problema sino aparente, pues los robots siguen cumpliendo
la 1ª Ley, imposibilitados de causar ningún daño a los humanos o al planeta. En
la fecha de relevo de astronautas, ellos no avisan a los nuevos de la situación
en un gesto irónico.
Capítulo
4 Atrapa esa liebre
Los mismos Powell y
Donovan quedan encargados de investigar una falla en la producción robótica
minera en un paraje espacial. En esa ocasión los robots son excelentes obreros
mientras están siendo observados por humanos, pero cuando son dejados solos dentro
de los profundos túneles se presentan fallos misteriosos y no cumplen con su
trabajo. Esos robots mineros presentan otra característica: son cuadrillas que
tienen una máquina líder y las demás son dependientes a los que designan como
“dedos”. El líder se llama Dave y es un robot parlante, dotado de cerebro
positrónico, sin embargo, no proporciona explicaciones del extraño
comportamiento laboral cuando se quedan solos trabajando.
Buscando respuesta a la
baja producción, los astronautas se dedican a especular sobre las
características de robots con cerebro positrónico y a espiar en monitores.
Descubren un comportamiento extraño, pues fuera de supervisión los autómatas
hacen simpáticas evoluciones, hacen filas y dan vueltas, como ensayando un
baile; en vez de trabajar, hacen esos ejercicios de baile de grupo. Las
diversas investigaciones, interrogatorios y observaciones no sacan algo en
claro, así que los astronautas deciden espiar directamente en los túneles de
las minas, aunque en el trayecto ocurre un accidente y los humanos quedan
atrapados. Ellos logran llamar la atención de los robots para el rescate,
mientras comprenden las interrupciones del trabajo y los bailes, los cuales
están relacionados con la 3ª Ley por evitar los peligros de la mina. Concluyen
que el baile servía a modo de una recuperación del control por parte del robot
líder Dave sobre sus subordinados, mientras procesaba la situación adversa,
parangonado con el movimiento nervioso de manos cuando existe preocupación o la
gesticulación maniática ante la frustración.
Capítulo
5 Embustero
Se narra la enorme
preocupación que causa un nuevo modelo de robot avanzado, apodado Herbie, que creen
está leyendo la mente de sus interlocutores. Siendo un modelo nuevo está
confinado en la U.S. Robots. El caso provoca revuelo y requiere de la intervención
de los directivos, incluso para comprobar si es capaz de lograrlo y sus
implicaciones.
Esa inusitada capacidad
para leer mentes ajenas de Herbie se combina con las pasiones de los
directivos. El director Lanning y el número dos de la compañía, Bogert,
perfilan un conflicto entre el deseo de permanecer en el mando y el anhelo del
subordinado por conquistar la cumbre. La psicóloga de robots Susan Calvin, ha
permanecido soltera, aunque quisiera que un colega la amara. Las intervenciones
de Herbie provocan un divertido conflicto, pues a Susan la convence de que su
colega sí la ama en secreto, lo cual la ilusiona; luego, al subordinado Bogert
le indica que el director trama retirarse y que él está designado para
sucederle en forma inminente. Las intervenciones de Herbie provocan amargos
conflictos y equívocos, pues más que lecturas fidedignas de la mente lo que
comunica son las aspiraciones y
deseos que sus interlocutores guardan sin atreverse a revelar.
Pronto Susan descubre que
el colega sí planea casarse, pero con otra y entre el director y Bogert estalla
un conflicto. Ese comportamiento de Herbie que ha engañado a los humanos parece
imposible, pero la psicóloga encuentra la fría respuesta, mediante una paradoja
y emprende un interrogatorio tortuoso hasta que el robot confiesa: “—… ¡He
tratado de ayudarte! ¡Te he dicho lo que deseabas oír! ¡Tenía que hacerlo!”[10]
En lugar de decir la verdad, inventaba lo que ellos desean oír para no
dañarlos, pero eso trae aparejado otro daño, por lo que el robot sucumbe ante
la contradicción, pues la 1ª Ley de la robótica permite esa paradoja entre
verdad y deseo. Aunque aparece una explicación final, el desenlace está
salpicado de las pasiones desbordadas y los dolores del desengaño, por eso la
psicóloga tacha al robot de “Embustero” con un dejo de ardor. Este es el único
capítulo donde la protagonista adquiere un matiz pasional, cuando su
comportamiento siempre fue intelectual, a la manera de un “vulcano” dominando
cualquier emotividad.
Capítulo
6 El pequeño robot perdido
Los especialistas de la U.S.
Robots son traídos a una lejana estación espacial, la Hyper Base, donde se les
requiere urgentemente por el extravío de un nuevo robot, confundido entre un
grupo de 63 ejemplares del mismo prototipo llamados Nestor. Uno escapó del trabajo
y posteriormente regresó para camuflarse entre los demás.
Contra su interés
personal, la psicóloga robótica, Susan Calvin, es conducida junto con el
directivo Bogert. El asunto se maneja con recelo militar, en un campamento
dirigido por el general Kallner, donde se les informa que las Ley robótica ha
sido ligeramente modificada en estos nuevos ejemplares, pues su eficiencia
fallaba porque ese trabajo implicaba cierto riesgo para los seres humanos, que las
máquinas debían desestimar para ser eficientes. En concreto, la 1ª Ley, fue
modificada quitando el precepto de la “inacción”, por lo que los robots omitían
el aspecto del daño por inacción. El general explica: “Se construyeron cerebros
positrónicos que poseían sólo el aspecto positivo de la ley, que dice:
"Ningún robot debe dañar a un ser humano". Eso es todo. No tienen la
obligación de evitar que un ser humano sufra daño debido a un factor extraño,
como los rayos gamma.”[11]
Al mismo tiempo, los
cerebros positrónicos de estos robots están más perfeccionados y el ejemplar
perdido percibe que lo buscan para destruirlo, por lo que permanece confundido
entre los demás. La búsqueda investiga el instante de su escapada, cuando un
técnico lo insultó y desencadenó su huida.
La psicóloga conduce la pesquisa haciendo pruebas psicológicas a los 63
Nestor, encontrando enorme dificultad para resolver el caso. Después de los
test se diseñan varias situaciones de peligro para humanos y luego también para
los mismo robots. Finalmente la psicóloga descubre al fugitivo, quien se
comporta agresivo debido a que está desarrollando un “complejo de superioridad”[12]
al creerse mejor a los humanos. El transgresor es fácilmente destruido y luego
todos los modelos semejantes, para evitar tan peligrosa irrupción del “complejo
de superioridad” de los robots.
Capítulo
7. ¡La fuga!
“Cuando Susan Calvin
entró en la bóveda de Cerebro, fantásticamente guardada, uno de los turnos de
técnicos acababa de preguntarle: "Si una gallina y media pone un huevo y
medio en un día y medio, ¿cuántos huevos pondrán nueve gallinas en nueve días?
". Y la máquina había contestado:
"Cincuenta y cuatro". Y los técnicos se habían mirado perplejos unos
a otros. La doctora Calvin tosió y se produjo una súbita confusión de energías.”[13]
Así comienza el encuentro entre la psicóloga de robots y la inteligencia
artificial más avanzada producto de la empresa líder.
Este capítulo inicia con
una apuesta entre las dos más grandes corporaciones, pues los rivales han
dañado a su único supercomputador en una tarea extraordinaria, al encargarle
diseñar una nave capaz del viaje hiperespacial[14].
Los protagonistas de U.S. Robots aceptan la apuesta y dan el reto a su
megamáquina Cerebro, para cumplir esa tarea. Sorprendentemente, ese encargo le
resulta fácil, pues elabora una nave misteriosa en pocas jornadas. Luego,
cuando dos astronautas visitan el vehículo recién terminado, la nave los
secuestra y se lanza hacia el hiperespacio de un modo extraño. Esa nave sin
instrucciones y escasa de comodidades semeja una broma práctica para los
viajeros obligados a comer habas y leche en exclusiva, sin facilidades de
limpieza, etc. La clave de la trama está en que los dos astronautas mueren en
el veloz viaje hiperespacial, aunque de inmediato reviven; así, Cerebro ha
eludido el riesgo de dañar a los humanos, bajo un supuesto muy inusual. Sin
embargo, la misma súper máquina se "espanta" cuando la Dra. Calvin le cuestiona sobre
las consecuencias morales y parece bromista con su solución.
Capítulo
8 La prueba
Este cuento explica el
asombroso caso cuando Stephen Byerley, un robot simulando ser humano, compite y
gana por el puesto de fiscal.
El candidato simulaba ser
humano ejemplar, pero fue cuestionado por un fanático anti-robot de la
“Sociedad Humanitaria” que hace gran alboroto para ilegalizar su candidatura.
En la lucha entablada, se requiere la intervención de la doctora Calvin para
aclarar si será posible que compita y si descarta que sea un ser artificial. Al
final, el robot Byerley se sale con la suya engañando a todos cuando viola la
primera Ley Robótica, al dar un puñetazo durante un discurso público, evidenciando
la más espectacular violación de tal Ley que prohíbe dañar a personas. El
diseño de tal escena pública es magnífico por su efecto mediático positivo, la
resolución del caso y en engaño implicado, pues el golpeado resultó ser otro autómata
imitando a la perfección a un humano anti-robot.
Con el tiempo alcanza los
más altos puestos del planeta, ese Stephen Byerley, originalmente un robot creado
por un talentoso humano, pero accidentado e incapacitado años antes.
La Dra. Calvin mantiene
una relación de complicidad final con el robot, pues estima que sí demuestra su
capacidad como magnífico funcionario, primero fiscal y luego gobernante, que
toma excelentes decisiones y es incapaz de cualquier corrupción. La combinación
entre un cerebro robótico evolucionado y una buena programación resulta en un
gobernante excelente. En el fondo también es la prueba de fuego para las 3
Leyes robóticas, en cierto momento Dra. Susan Calvin reflexiona: “—Porque, si
se detiene usted a estudiarlas, verá que las tres Leyes de Robótica no son más
que los principios esenciales de una gran cantidad de sistemas éticos del
mundo…”
Capítulo
9 El conflicto evitable
En el capítulo final el
Presidente Ordenador Byerley invita a la psicóloga de robots, Susan Calvin, ya
anciana, para platicar de lo que él teme sea el mayor peligro sobre la
humanidad. El líder le explica que existen una serie de fallas en la economía
mundial, guiada por las Máquinas de inteligencia artificial, que resultan
perturbadoras. Ese mundo está dividido en cuatro regiones y este Byerley es el
líder planetario, para quien la falla económica requiere una investigación
detallada. Expone el panorama de los grandes conflictos de la humanidad que han
conducido a guerras y modificado los sistemas sociales durante siglos[15].
En ese futuro cibernético, existe una asociación contraria a las máquinas que
parece estar saboteando la economía global, mediante introducción de datos
falsos. El Presidente ya se ha entrevistado con los cuatro líderes de las
regiones y hace la descripción de las cuatro grandes regiones que agrupan
Oriente, Tropical, Europa y Nórdica[16].
La propuesta del Presidente es ilegalizar a la Asociación que sabotea la
economía mundial; la contrapropuesta superior de la psicóloga detiene ese
intento. El trasfondo es el conflicto inevitable entre la Máquina y los
humanos; el enigma lo interpreta Susan explicando que las fallas estaban
previstas por la Máquina, pues siguiendo los dictados de la Primera Ley de la
Robótica estaría previendo tales informaciones erróneas y subsanando el sistema
mismo.
El argumento clave sobre
cómo fue posible que la misma Máquina no diera una respuesta correcta sobre la
ineficiencia económica, se pregunta el Presidente Byerley: “—…¿Cómo podemos
correr el riesgo de que no tenga usted razón?”
Responde Susan Calvin: “—Deben
correrlo. ¿Recuerda usted la respuesta de la Máquina cuando le sometió la
pregunta? "El caso no admite explicación". La Máquina no dijo que no
hubiese explicación, ni que no pudiese determinarla. Dijo sólo que "no
admitía" explicación. En otras palabras, "sería perjudicial para la
Humanidad tener la explicación de lo ocurrido", y por esto sólo podemos
hacer suposiciones... y seguir suponiendo.”[17]
Una respuesta tan enigmática
nos recuerda los debates públicos que terminan en un “punto muerto” o las escandalosas
investigaciones de magnicidios que no concluyen jamás. Esto conduce a que las
dudas se deben mantener, incluso bajo la hipótesis de un gobierno perfecto y
automático.
Diálogo entre el
Presidente Ordenador Byerley y el líder Ordenador de la región Nórdica, Hiram
Mackenzie: “La Máquina no es más que una herramienta, al fin y al cabo, que
puede contribuir al progreso humano encargándose de una parte de los cálculos e
interpretaciones. La tarea del cerebro humano sigue siendo la que siempre ha
sido; la de descubrir nuevos datos para ser analizados e inventar nuevas
fórmulas para ser probadas.”[18]
Recordemos que en ese momento, aún estaban formándose en el horizonte las
capacidades de la inteligencia artificial, sus logros avisaban lo que vendría. De
modo implícito, se redefine la situación del cerebro humano, más acotada a
labores de calidad, aunque sometida a la respuesta veloz y global de los
robots.
Análisis
general
Para el surgimiento de la
ciencia ficción se ha requerido de un contexto de innovación científico-técnica
y un efecto colectivo palpable. La primera revolución industrial “todavía no”
brindaba el ambiente propicio para la ciencia ficción, ofrece los relatos
futuristas de Verne, su fruto más apetecible; luego, con el siglo XX y su
“revolución científico-técnica” surge el
contexto apropiado para definir este subgénero literario. Desde el principio
del siglo fructifica este género y hacia 1950 ya es un clásico literario, como
lo muestra la madurez de Asimov y otras luminarias como Clark, Lem, Dick y
Bradbury.
Las
jerarquías perturbadoras
La trama entera está
centrada en la jerarquía imaginaria entre humanos y robots; las primeros sintiéndose
amenazados en su “nicho” de señores de la creación y los segundos
convirtiéndose en cada vez más capaces y candidatos a sobrepasar la condición
humana. Comienzan sub-humanos y terminan sobre-humanos, con una buena paradoja
para Nietzsche anunciando a un falso superhombre de metal. El lugar del rey y
el esclavo lo ocupan simultáneamente el robot, de ahí una opacidad siniestra e
inquietante, pues la línea del progreso está señalada y empuja hasta
convertirlo en monarca bondadoso[19].
Entre los humanos la
división entre los sexos es evidente aunque marcada con un ánimo igualitario,
donde la protagónica es una mujer que es capaz de enfrentarse sin complejos a
directivos, generales o robots. Nos encontramos roles muy tradicionales como en
la primera narración con Robbie y, casi siempre, Susan Calvin, semeja un hombre
racional dentro del cuerpo de mujer; aunque para el años en que se escribió esa
perspectiva no sería cuestionable, más bien avanzada. La jerarquía marcada
surge en otros niveles: dentro de la empresa, el mando militar o al gobernar.
La empresa mantiene una estructura que no se cuestiona y un conflicto
generacional en la narración de “Embustero”, se resuelve en la ilusión entre
quien aspira y quien manda. La mayor interrogación surge con la capacidad de
gobernarse, porque el robot sobre-dotado muestra más habilidades que las
personas, además un subtema es la inconformidad contra los robots por su sombra
de competencia, anotando la resistencia de sindicatos y una liga mundial.
El trasfondo inquietante
es la fusión de las jerarquías humanas para diluirlas bajo su sombra robótica
la suponer un gobierno mundial perfecto, que no es descubierto por la gente;
todos súbditos de un orden metafísico, así, el robot salta desde esclavo hasta
amo universal. En ese sentido, el capítulo final es una incubadora para “teorías
de la conspiración” al suponer tal súper-inteligencia capaz de anticipar y
responder a cualquier falla u oposición. En ese final, las máquinas
inteligentes terminan tan sofisticadas que planificarían la economía hasta en
sus detalles más recónditos, incluso anticipando cualquier perspectiva y
arbitrariedad individual. Recordemos que en la década de 1950 —cuando se
escribió esta ficción— la URSS presumía planificar su enorme país mediante los
“planes quinquenales”, sin embargo, ese argumento se mostró irónico y, luego,
se convirtió en su contrario mediante el desperdicio burocrático[20].
Con sea, la imagen de Plan Planetario resultaba atractiva y, además, un extremo
de la hipótesis racionalista como la expuso Pascal que finiquita la libertad al
convertirla en una ilusión[21].
Las
facultades: razón, psicología y ética encontradas
El conjunto del relato
coquetea con la armonía y conflictos entre razón, corazón y principios éticos. El
demiurgo es la razón que incluso diseña al “corazón” robótico mediante un
cerebro, por lo que el típico conflicto romántico entre pensamiento y pasión
está desplazado; pues los circuitos lógicos del cerebro positrónico predominan.
Las infatuaciones sentimentales quedan marginadas en la trama, aunque salen a
la luz en el capítulo “Embustero”, cuando las personas guardan secretos que no
se atreven a confesar y estalla un lío cuando el robot Herbie los lee
telepáticamente. Otro atisbo inquietante es la hipótesis de que un robot
comience a “sentirse” superior a los humanos, escondiendo una especie de
rebeldía, ejemplificada en el modelo Néstor[22].
El factor “psicología” es
muy importante en la trama, porque las “leyes robóticas” quedan implantadas a
un nivel subconsciente en los cerebros positrónicos y las situaciones
particulares crean conflictos, que semejan especies de locuras, neurosis y
manías. Las contradicciones lógicas entre evitar el daño a los humanos y la
preservación del robot predominan en el capítulo de Speedy. Quizá la
presentación más curiosa entre lo consciente e inconsciente está con Cutie, el
robot convertido en fanático religioso, porque sus leyes robóticas se han
hundido en la oscuridad, sin embargo, las sigue respetando escrupulosamente y
dando el servicio indispensable en la estación espacial. Ese capítulo ofrece un
aspecto de tesis sicológicas importantes sobre que funcionan con más fuerzas
mientras más se ignora su existencia, y otra manera es que mientras más
reprimida está la emoción o el deseo, más se impone en su forma enmascarada.
Entre la razón plena y el
corazón (equívoco pero indispensable como fuente) se levanta la ética que
sintetiza los tres principios para convertirse en el eje teórico del relato. La
expectativa de que basten tres simples leyes para programar éticamente a los
robots permanece en el eje, cual ensoñación de una Constitución mínima para
programadores. La tensión surge en las situaciones donde esas tres leyes se
contradicen o presentan aspectos paradójicos, culminando con la ensoñación de
la superioridad final de la inteligencia artificial, cuando las personas se
conviertan en infantes entre las manos de sus creaciones.
Una
Tierra Prometida robótica
¿Qué ensueño es este que
salta desde la fabricación de un sirviente de hojalata (con tono despectivo)
hasta la culminación en un amo planetario (con tono admirativo)? Es el anhelo
de la ciencia, es la vigilia del científico dando luz a un universo
esplendoroso; en tal sentido, Asimov es antagónico a Mary Shelley, pues desinfla
el síndrome de Frankenstein, cuando exhorta a dejar atrás el temor hacia
nuestras criaturas tecnológicas. La propuesta es que la ciencia-tecnología será
la salvadora, tras el terror de la Segunda Guerra Mundial y la sombra ominosa
de la bomba atómica, este patriarca de la ciencia ficción señala en dirección de una Tierra Prometida edificada
sobre principios científicos y éticos. Eso es suficiente optimismo ¿o
requerimos de más todavía? Desde la Ilustración bastó una positiva noción de
Progreso para desencadenar una tempestad de expectativa; en el siglo XX, el
anhelo de utopías terrenales cimbró el globo; en el siglo XXI, cuando las
imaginaciones futuristas se están cristalizando, todavía podemos escuchar al
profeta de la robótica, Isaac Asimov, con la curiosidad despierta, de si alguna
mañana, una emanación con “inteligencia artificial”, despertará con una chispa
de conciencia encerrada en la frase “Yo, robot”. La Biblia dice que Moisés no alcanzó la Tierra
Prometida, ¿serán los sucesores de la humanidad los destinatarios de ese paraje
edénico o, incluso, una Eva colectiva?
NOTAS:
[1]
Que este tipo de máquina-robot no es el único que surge en la literatura,
cabría anotar la falta de deseo específico encerrada en este relato;
simultáneamente, el robot es un enorme sucedáneo al deseo. El robot-niñera Robbie
sustituye a la madre en el afecto de su hija; el robot-telépata remplaza los
deseos de amor de Susan por una hipótesis falsa… Al acumularse los efectos (secos
y discretos) de las máquinas se convierten en la satisfacción global, dirigiendo
la economía planetaria; así, la sequía emocional del relato se compensa con una
horizonte de una mega-máquina-deseante, bajo la óptica de Deleuze y Guattari,
tipo Kafka, por una literatura menor.
[2]
El robot reflejaría la idealización cúspide de la enajenación, todavía más como
hipótesis literaria, que paso a paso está materializándose; es la escala del
tránsito entre la objetivación y la cosificación. En este caso, el autor
sostiene que la enajenación nunca triunfará, pues predominarán los principios
positivos plasmados por la ciencia y la virtud. Cf. KOSIK, Karel, Dialéctica de lo concreto.
[3]
Específicamente, el término “positrónico” remite a la hipótesis de que la
antimateria de positrones alimente a una fina trama que alimente una red de
inteligencia artificial de tamaño aproximado al cerebro, para guiar a los
robots.
[4]
Esto es relativo, por lo que se esperaría de un magnífico divulgador de la
ciencia como fue Asimov y por otras de sus obras. Estos cuentos novelados
enfatizan más sobre el aspecto subjetivo de los robots y menos sobre sus rasgos
técnicos. El foco se mantiene sobre los potenciales conflicto y fallas de las
inteligencias robóticas en situaciones extremas.
[5]
ASIMOV, Isaac, Yo, robot. En obras
posteriores, se completará esta tríada con una “Ley cero” que especifica que el
daño a evitar se refiera a la humanidad, entonces esta tesis adquiere un matiz
social o de la colectividad completa. Asimov
llegó a atribuir esas tres leyes a su editor, John W. Campbell, pero éste
recusó tal honor e insistió en la paternidad exclusiva del escritor.
[6]
Esta serie también muestra gran interés por la psicología y su expansión hacia
campos inexplorados. Si bien, todavía era una disciplina marginal, ya había
obtenido un sitio en las academias occidentales.
[7]
Se refiere a la hostilidad colectiva ante la criatura horrorosa, que es
rechazada según el modelo acontecido en la novela de Mary Shelley, Frankenstein o en moderno Prometeo. Dicha
novela es un hito en la reflexión sobre las consecuencias de la ciencia y la
posibilidad de crear una nueva vida a partir de tales premisas. Idea en 1816 y
terminada su primera versión en 1818, el monstruos revivido con electricidad
encarna los temores y expectativos de la revolución industrial.
[8]
El cuento original data de 1942 y es el primero donde Asimov expuso sus “3
Leyes de la Robótica”, por lo que conserva el valor de una primicia.
[9]
Resulta evidente cierto dominio de Asimov sobre los temas de historia de la
filosofía, colocándolos de manera oportuna en este relato.
[10]
ASIMOV, Isaac, Yo, robot
[11]
ASIMOV, Isaac, Yo, robot.
[12]
Entre los muchos guiños con la psicología, aquí adopta la hipótesis de un
complejo, según las tesis de Adler que marcaría permanentemente una conducta,
que suponiendo inferiores a los humanos establecería un quebranto permanente de
las 3 Leyes robóticas. Además, en el relato ese es el único robot de
comportamiento anti-humano, los demás resultan un canto al optimismo
tecnológico.
[13]
ASIMOV, Isaac, Yo, robot.
[14]
El autor no da detalles técnicos sobre el tipo de viaje que desafiaría los
límites de la velocidad de la luz para permitir viajar a otros mundos y
comenzar la colonización de las estrellas.
[15]
El atractivo de este capítulo es la consideración sobre la historia de los
conflictos de la humanidad, enfocados sobre si un futuro de alto nivel
tecnológico lo superaría mediante la inteligencia artificial global.
[16]
Asimov desarrolla la hipótesis de la conversión de las naciones-Estado en
regiones mayores, simplemente cuatro, una hipótesis popular entre otros
interesantes futuristas, como el optimista Toffler o el pesimista Orwell en su 1984.
[17]
ASIMOV, Isaac, Yo, robot. Toda
filosofía que se precie completa, termina desembocando en una teoría política;
así, como Hegel llegaba a la conclusión de un Espíritu Absoluto que encarnaba
en el gobierno, el aspecto filosófico de la ciencia ficción consistente nos
conduce hacia una hipótesis sobre el gobierno. Aquí Asimov ofrece al ensoñación
de un gobierno de robots pero dedicados por entero a la humanidad.
[18]
ASIMOV, Isaac, Yo, robot.
[19]
La hipótesis final es la conversión del robot en un monarca absoluto y
bondadoso, una fantasía proyectada en la ilustración sobre algunos personajes.
La zozobra que trasluce esta idea de la entronización del robot es evidente.
[20]
Si bien el método filosófico de modo coherente apunta hacia la totalidad, la
pretensión del control total se convierte en el sueño de la tiranía. Cf.
LUKÁCS, Georg, Historia y consciencia de
clase.
[21]
La hipótesis de Blas Pascal remitía a un Dios inicial que conocía todas las
premisas por tanto anticipa todas las consecuencias, lo cual no agrada a Hegel
al considerar eso como una “hipótesis de encapsulamiento”, sin embargo, habrá
quien crea que el Espíritu absoluto se aproxima a tal racionalismo cerrado. Cf.
MARCUSE, Herbert, Razón y revolución.
[22]
Vale repetir que la película “Yo, robot” no corresponde al argumento de la
novela, sino que rescata elementos y posee una trama distinta. En la película
esta inquietud sobre los robots que se sienten superiores a los humanos
adquiere el papel central, cuando en la novela es un aspecto secundario.
2 comentarios:
gracias
gracias ya tengo la tarea hecha
Publicar un comentario