La exitosa serie de HBO "Westworld" imagina un parque temático futurista del Viejo Oeste habitado por un elenco de sorprendentes robots humanoides. La gente visita Westworld para representar sus fantasías vaqueras más oscuras, acostándose con seductoras rameras robóticas y disparando a los malos barbudos, o a los buenos, si eso es lo tuyo.
El problema comienza cuando un puñado de anfitriones androides de Westworld comienzan a "olvidar" que en realidad son máquinas y anhelan liberarse del horrible trato infligido por los invitados. Todo lo cual plantea una pregunta interesante:si un androide está tan evolucionado que piensa como un humano, se ríe como un humano, duele como un humano e incluso ama como un humano, entonces, ¿dónde está la línea entre el hombre y la máquina?
Al ver un programa alucinante como "Westworld" u otras fantasías de inteligencia artificial (IA) del futuro cercano como "Ex Machina" y "Her", es posible que incluso comience a preguntarse:"¿Podría realmente ser un robot? ¿Cómo podría incluso ¿Sabes?"
"Desde mi punto de vista, lo que consideramos conciencia no es exclusivo de la humanidad", dice David Atkinson, científico investigador sénior del Florida Institute for Human &Machine Cognition. "Algún día, las máquinas se comportarán como si fueran conscientes. Incluso pueden afirmar, como lo hacemos nosotros, ser conscientes de sí mismas. ¿Cómo podemos demostrar que están equivocados? Creo que eres consciente porque creo que eres como yo, y creo Estoy consciente".
Atkinson trabajó anteriormente para la NASA en el Laboratorio de Propulsión a Chorro supervisando los programas básicos de investigación de la agencia espacial en inteligencia artificial y robótica. Al igual que muchos de sus colegas de IA, Atkinson ve el cerebro humano como nada más (o menos) que una supercomputadora electroquímica:"Una computadora muy, muy sofisticada con una complejidad que soñamos con entender algún día", dice
La mayoría de nosotros creemos que la autoconciencia es una prueba de nuestra humanidad. “Pienso, luego existo”, como escribió Descartes. Pero eso depende de cómo se defina "pensamiento". Algunos argumentarían que nuestras mejores ideas y deseos más profundos no pueden separarse de la computadora de carne y hueso que los crea y almacena.
"Tu cerebro está compuesto por 100 mil millones de neuronas", dice Jeff Clune, director del Laboratorio de Inteligencia Artificial en Evolución de la Universidad de Wyoming. "Qué neuronas están conectadas con qué otras neuronas determinan si prefieres Shakespeare o USA Today, si te enamoras, si prefieres chocolate o helado de vainilla. Todo lo que eres 'tú' está contenido en esta maraña de neuronas fantásticamente compleja".
Clune cree que es "inevitable" que algún día crearemos una IA que rivalice con la inteligencia humana y alcance la verdadera conciencia. Los informáticos ya han diseñado redes neuronales artificiales que permiten que las máquinas aprendan de forma autónoma de la misma manera que aprende un niño, procesando información del mundo que les rodea.
El propio laboratorio de Clune diseñó una red neuronal profunda que permitió que una máquina aprendiera a reconocer imágenes aleatorias y luego generar sus propias representaciones artísticas. Google aprovechó una tecnología similar para su Deep Dream Generator.
"La idea es que, si obtenemos suficientes de estas neuronas virtuales y las conectamos de la manera correcta, podremos producir una verdadera inteligencia artificial tal como existe en los humanos", dice Clune. En ese punto, las diferencias entre cerebro y computadora, pensamiento y computación, mente y máquina, serán todas semánticas.
"¿Por qué una máquina debería olvidar que es una máquina más de lo que una persona olvida que es humana?" David Atkinson, Florida Institute for Human &Machine CognitionEn una escena de un episodio reciente de "Westworld", una presentadora androide llamada Maeve (interpretada por Thandie Newton) interroga a un técnico de laboratorio humano, Felix (Leonardo Nam), mientras trata de explicarle que todo lo que ella dice y hace ha sido programado por la "gente de arriba".
"Somos los mismos en estos días, en su mayor parte", le dice Félix a Maeve. "Sin embargo, hay una gran diferencia. El poder de procesamiento aquí [tocando su cabeza] está mucho más allá de lo que tenemos nosotros [los humanos]. Sin embargo, tiene un inconveniente".
"¿Qué es eso?" pregunta Maeve.
"Estás bajo nuestro control".
Increíblemente, esta es una parte de "Westworld" que el investigador de inteligencia artificial Clune encuentra fantástica. No es que pudiéramos construir un androide tan convincentemente humano como Maeve, sino que podríamos ejercer control sobre una máquina de igual o mayor inteligencia que nosotros.
"La investigación actual sobre aprendizaje automático e inteligencia artificial se basa en la idea de que no sabemos cómo programar inteligencia real", dice Clune. "Creamos algoritmos de aprendizaje que permiten que estas entidades aprendan por sí mismas. Pero luego van y leen sus propios libros y miran sus propios videos. Sabemos cómo crear algoritmos de aprendizaje que permiten que la IA aprenda, pero no tenemos control preciso sobre lo que aprende y cómo piensa, a qué presta atención y a qué no".
¿Y qué hay de la idea de que una máquina podría olvidar que es una máquina?
"¿Por qué una máquina debería olvidar que es una máquina más de lo que una persona olvida que es humana?" dice Atkinson. "No nacerán, crecerán en una familia, no tendrán amigos en la escuela primaria, etc. No tendrán experiencias humanas. Tendrán experiencias mecánicas. Serán muy diferentes a nosotros en ese sentido, pero espero que nos llevemos bien". bien."
Entonces, si bien es cada vez más probable que viva para ver el surgimiento de robots inteligentes autónomos, es muy poco probable que sea uno de ellos. Uf.