Columnas

Singularidad Tecnológica: ¿Qué tan inteligentes son y serán las computadoras?

Por Agustín Navarro Un juego de mesa En 1997 Garri Kasparov, el mejor ajedrecista de la década, se sentó frente a la supercomputadora Deep Blue y juntos protagonizaron una serie de partidos de campeonato que marcarían un antes y un después en el mundo de la informática. La derrota de Kasparov levantó tanto revuelo mediático […]

🕒  5 minutos de lectura

 | 
Ilustración: Agustina Bortolon.

Por Agustín Navarro

Un juego de mesa

En 1997 Garri Kasparov, el mejor ajedrecista de la década, se sentó frente a la supercomputadora Deep Blue y juntos protagonizaron una serie de partidos de campeonato que marcarían un antes y un después en el mundo de la informática. La derrota de Kasparov levantó tanto revuelo mediático que por algún tiempo se creyó que la ciencia había hecho lo imposible, crear una máquina más inteligente que un humano.

El próximo evento fue en 2016 cuando AlphaGo, un software que puede jugar el juego de mesa Go, derrotó de forma arrolladora (4 a 1) al campeón Sur Coreano, Lee Sedoli. Lo interesante de este caso es que Deep Mind, la empresa detrás de la programación de AlphaGo, no había entrenado a su software para jugar al Go de forma estadística. 

En el caso de 1997 la supercomputadora Deep Blue es lo que se conoce como inteligencia artificial de fuerza bruta, cuando recibe un dato (una jugada) la compara con una colosal base de datos hasta que encuentra la mejor respuesta preprogramada. Pero si la jugada no está cargada en su sistema: no puede mover.  

AlphaGo, por otro lado, está construida con algoritmos de aprendizaje de propósito general. Solo se le introdujeron las reglas del juego, algunas partidas históricas de referencia y después de practicar un par de días jugando sola, fue construyendo su “red neuronal” propia y se encontró en condiciones de derrotar al máximo referente humano. 

Más que una super base de datos que toma decisiones por antecedentes, estas formas de IA son un intento de destilar inteligencia en una construcción logarítmica. El desafío en todo caso era construir un software que pueda aprender.

Medir el Salto 

Entonces ¿Qué tan lejos estamos de que una IA tenga las mismas capacidades intelectuales que un humano?¿Se puede predecir eso? No mucho. Lo cierto es que en las próximas décadas las IA de tareas específicas se volverán casi cotidianas. El SmartPhone será desplazado por alguna forma de asistencia online y casi todos los espacios laborales contarán con la presencia de alguna IA fuerte, multipropósito, que acompañe la toma de decisiones, administre o investigue según sea necesario. Algo que ya se puede ver en algunos laboratorios de medicina del mundo.

Te puede interesar: "Cuentame un cuento: ¿Cómo nos refleja la última generación de software de texto predictivo?"

Pero una IA fuerte, es decir, una que iguale la suma de todas las capacidades intelectuales de un humano y sea igual de flexible parece algo mucho más lejano. ¿Qué tan lejano? Casi todas las hipótesis que hay dando vueltas coinciden en que necesitamos unas 2 o 3 décadas más de desarrollo, es decir año 2040 o 2050. Existe una realidad: el acceso a nuevas tecnologías permiten generar más tecnología y más rápido. No era lo mismo en la década del 60 dibujar a mano un plano de un transistor antes de construirlo, que hoy diseñar en 3D un microchip y testear su capacidad de cómputo antes de que siquiera exista. ¿Y si de pronto dejamos que una IA diseñe tecnología para nosotres? Bueno, eso podría desencadenar una Singularidad, es decir el equivalente a nuestro antepasado, que hace millones de años, descubrió el fuego. Un salto.

Singularidad Tecnológica

Esto chiques es ciencia ficción en serio. En pocas palabras si una IA fuerte, pudiese crear tecnología, es decir pudiese crear copias mejoradas de sí misma, con mayor capacidad de cómputo, con algoritmos de aprendizaje más pulidos y automejorarse recursivamente, este ciclo daría lugar a un efecto fuera de control. Una explosión de Inteligencia que volvería obsoleta toda tecnología previa. Incluso nuestras leyes de la física, las matemáticas, la economía global,  nuestra comprensión de la materia, todo quedaría instantáneamente detrás de este salto. En un chasquido de dedos estaríamos en la Posthumanidad, nos guste o no.

Nos es casi imposible imaginar el aspecto visual de esa Posthumanidad, aunque varias especulaciones sí coinciden en que la fusión entre inteligencia humana y tecnología sería un hecho consumado. 

La Singularidad tecnológica es en sí misma una hipótesis. Con sus adeptos y detractores. Quizás lo curioso para una teoría que tiene más de 70 años sea que su principal respaldo venga de campos de estudio como la matemática y la estadística (Ley de Moore por ejemplo) y no de disciplinas que justamente estudian la mente humana como tal. Se pretende abrir un debate sobre Inteligencia Artificial cuando todavía no sabemos qué es la inteligencia o, más difícil aún, la conciencia.

Del mismo modo que nuestro antepasado primigenio usó el fuego para abrigarse, para imaginar, para cocinar o para luchar, sin saber que clase de fenómeno era: nosotres, millones de años después, rápidamente estamos allanando el camino hacia la creación de inteligencias extrahumanas. ¿Qué clase de autonomía tendrán?¿Buscaremos fusionarnos con ellas? ¿Sucederá una batalla entre lo orgánico y lo artificial? Como una ventana negra el futuro se presenta como lo desconocido, lo incierto. Todo un palo ya lo ves.

Enterate acá
Enterate acá

Relacionado

Enterate acá

Más de lo último