Es un tema común en la ciencia ficción:la humanidad lucha por sobrevivir en una sociedad futurista distópica. Los científicos descubren demasiado tarde que sus máquinas son demasiado poderosas para controlarlas. Las computadoras y los robots fuerzan a la raza humana a la servidumbre. Pero esta trama popular podría no pertenecer al ámbito de la ficción para siempre. Discutida por filósofos, informáticos y mujeres llamadas Sarah Connor, esta idea parece ganar más credibilidad cada año.
¿Podrían las máquinas reemplazar a los humanos como la fuerza dominante en el planeta? Algunos podrían argumentar que ya hemos llegado a ese punto. Después de todo, las computadoras nos permiten comunicarnos entre nosotros, realizar un seguimiento de sistemas complejos como los mercados globales e incluso controlar las armas más peligrosas del mundo. Además de eso, los robots han hecho realidad la automatización para trabajos que van desde la construcción de automóviles hasta la construcción de chips de computadora.
Pero ahora mismo, estas máquinas tienen que responder ante los humanos. Carecen de la capacidad de tomar decisiones fuera de su programación o usar la intuición. Sin la autoconciencia y la capacidad de extrapolar en función de la información disponible, las máquinas siguen siendo herramientas.
¿Cuánto durará esto? ¿Nos dirigimos hacia un futuro en el que las máquinas adquieran una forma de conciencia? Si lo hacen, ¿qué nos pasa a nosotros? ¿Entraremos en un futuro en el que las computadoras y los robots hagan todo el trabajo y nosotros disfrutemos de los frutos de su trabajo? ¿Seremos convertidos en baterías ineficientes al estilo de "The Matrix"? ¿O las máquinas exterminarán a la raza humana de la faz de la Tierra?
Para la persona promedio, estas preguntas pueden parecer extravagantes. Pero algunas personas piensan que debemos considerar preguntas como estas ahora. Una de esas personas es Vernor Vinge, ex profesor de matemáticas en la Universidad Estatal de San Diego. Vinge propone que la humanidad se dirige hacia un destino irrevocable en el que evolucionaremos más allá de nuestro entendimiento a través del uso de la tecnología. Él lo llama la singularidad .
¿Qué es la singularidad y cómo podría surgir?
La Singularidad
Robots como este pueden parecer lindos, pero ¿podrían estar tramando tu ruina?Vernor Vinge propone una predicción interesante, y potencialmente aterradora, en su ensayo titulado "La singularidad tecnológica que se avecina:cómo sobrevivir en la era poshumana". Afirma que la humanidad desarrollará una inteligencia sobrehumana antes de 2030. El ensayo especifica cuatro formas en las que esto podría suceder:
De esas cuatro posibilidades, las tres primeras podrían llevar a que las máquinas se hicieran cargo. Si bien Vinge aborda todas las posibilidades en su ensayo, pasa la mayor parte del tiempo discutiendo la primera. Echemos un vistazo a su teoría.
La tecnología informática avanza a un ritmo más rápido que muchas otras tecnologías. Las computadoras tienden a duplicar su potencia cada dos años más o menos. Esta tendencia está relacionada con la Ley de Moore , que establece que los transistores duplican su potencia cada 18 meses. Vinge dice que a este ritmo, es solo cuestión de tiempo antes de que los humanos construyan una máquina que pueda "pensar" como un humano.
Pero el hardware es solo una parte de la ecuación. Antes de que la inteligencia artificial sea una realidad, alguien tendrá que desarrollar un software que permita a una máquina analizar datos, tomar decisiones y actuar de forma autónoma. Si eso sucede, podemos esperar que las máquinas comiencen a diseñar y construir máquinas aún mejores. Estas nuevas máquinas podrían construir modelos más rápidos y potentes.
Los avances tecnológicos avanzarían a un ritmo vertiginoso. Las máquinas sabrían cómo mejorarse a sí mismas. Los humanos se volverían obsoletos en el mundo de las computadoras. Habríamos creado una inteligencia sobrehumana. Los avances vendrían más rápido de lo que podríamos reconocerlos. En definitiva, llegaríamos a la singularidad.
¿Qué pasaría entonces? Vinge dice que es imposible saberlo. El mundo se convertiría en un paisaje tan diferente que solo podemos hacer conjeturas descabelladas. Vinge admite que aunque probablemente no sea fructífero sugerir posibles escenarios, sigue siendo muy divertido. Tal vez vivamos en un mundo donde la conciencia de cada persona se fusione con una red informática. O tal vez las máquinas realizarán todas nuestras tareas por nosotros y nos permitirán vivir en el lujo. Pero, ¿qué pasa si las máquinas ven a los humanos como redundantes, o algo peor? Cuando las máquinas lleguen al punto en que puedan repararse a sí mismas e incluso crear mejores versiones de sí mismas, ¿podrán llegar a la conclusión de que los humanos no solo son innecesarios, sino también indeseables?
Ciertamente parece un escenario aterrador. Pero, ¿la visión del futuro de Vinge es una certeza? ¿Hay alguna manera de que podamos evitarlo? Descúbrelo en la siguiente sección, antes de que sea demasiado tarde.
¿Podemos evitar que las máquinas tomen el control?
Podemos usar robots para realizar tareas repetitivas automáticamente, pero ¿podremos eliminar a todos los humanos de un trabajo?No todos piensan que estamos destinados, o condenados, a alcanzar la singularidad detallada en el ensayo de Vinge. Puede que ni siquiera sea físicamente posible lograr los avances necesarios para crear el efecto de singularidad. Para entender esto, debemos volver a la Ley de Moore.
En 1965, Gordon E. Moore, un ingeniero de semiconductores, propuso lo que ahora llamamos Ley de Moore. Se dio cuenta de que a medida que pasaba el tiempo, el precio de los componentes semiconductores y los costos de fabricación caían. En lugar de producir circuitos integrados con la misma cantidad de energía que los anteriores por la mitad del costo, los ingenieros se esforzaron por incluir más transistores en cada circuito. La tendencia se convirtió en un ciclo, que Moore predijo que continuaría hasta que alcancemos los límites físicos de lo que podemos lograr con los circuitos integrados.
La observación original de Moore fue que la cantidad de transistores en una pulgada cuadrada de un circuito integrado se duplicaría cada año. Hoy decimos que la densidad de datos de un circuito integrado se duplica cada 18 meses. Los fabricantes ahora construyen transistores en la nanoescala . Los microprocesadores recientes de Intel y AMD tienen transistores de 45 nanómetros de ancho:un cabello humano puede tener un diámetro de hasta 180 000 nanómetros.
Los ingenieros y los físicos no están seguros de cuánto tiempo más puede continuar esto. Gordon Moore dijo en 2005 que nos estamos acercando a los límites fundamentales de lo que podemos lograr mediante la construcción de transistores más pequeños. Incluso si encontramos una manera de construir transistores en una escala de unos pocos nanómetros, no necesariamente funcionarán. Eso es porque a medida que te acercas a esta pequeña escala tienes que tomar física cuántica en cuenta.
Resulta que cuando tratas con cosas a escala subatómica, se comportan de maneras que aparentemente contradicen el sentido común. Por ejemplo, los físicos han demostrado que los electrones pueden atravesar un material extremadamente delgado como si el material no estuviera allí. A este fenómeno lo llaman electrón o tunelización cuántica . El electrón no hace un agujero físico a través del material, solo aparentemente se acerca por un lado y termina en el otro. Dado que los transistores controlan el flujo de electrones como una válvula, esto se convierte en un problema.
Si alcanzamos este límite físico antes de que podamos crear máquinas que puedan pensar tan bien o mejor que los humanos, es posible que nunca alcancemos la singularidad. Si bien hay otras vías que podemos explorar, como construir chips verticalmente, usando óptica y experimentar con nanotecnología -- no hay garantía de que podamos seguir el ritmo de la Ley de Moore. Es posible que eso no impida que llegue la singularidad, pero podría llevar más tiempo que la predicción de Vinge.
Otra forma de prevenir la singularidad incluye incorporar características de seguridad antes de que las máquinas puedan volverse conscientes de sí mismas. Estas características podrían incluso parecerse a las tres leyes de la robótica propuestas por Isaac Asimov. Pero Vinge contrarresta ese argumento señalando un detalle:si las máquinas son más inteligentes que nosotros, ¿no podrán encontrar formas de eludir estas reglas?
Incluso Vinge no llega a decir que la singularidad es inevitable. Hay muchos otros ingenieros y filósofos que piensan que no es un problema. Pero tal vez deberías pensarlo dos veces antes de maltratar una pieza de maquinaria:nunca sabes si te perseguirá para vengarse más adelante.
Para obtener más información sobre nuestros futuros amos informáticos y otros temas, consulte los enlaces de la página siguiente.
¡Obedecer la ley!La Ley de Moore no es una regla estricta ni se rige por la naturaleza. Es una profecía autocumplida. Los fabricantes de semiconductores se esfuerzan por mantenerse al día con la ley, lo que hace que la ley sea una predicción precisa.