Información

¿Deberíamos temer a la superinteligencia artificial?

¿Deberíamos temer a la superinteligencia artificial?

Hablando en una conferencia en Lisboa, Portugal, poco antes de su muerte, Stephen Hawking dijo a los asistentes que el desarrollo de la inteligencia artificial podría convertirse en el "peor evento en la historia de nuestra civilización", y tenía todos los motivos de preocupación. Conocido como una superinteligencia artificial (ASI) por investigadores de IA, especialistas en ética y otros, tiene el potencial de volverse más poderoso que cualquier cosa que este planeta haya visto y plantea lo que probablemente será el desafío existencial final que la humanidad alguna vez enfrentará como especie. .

¿Por qué la gente le teme a la inteligencia artificial?

Para comprender mejor lo que preocupaba a Stephen Hawking, Elon Musk y muchos otros, debemos deconstruir muchas de las representaciones de la IA en la cultura popular.

La realidad es que la IA ha estado con nosotros desde hace un tiempo, desde que las computadoras pudieron tomar decisiones basadas en entradas y condiciones. Cuando vemos un sistema de inteligencia artificial amenazador en las películas, es la malevolencia del sistema, junto con el poder de una computadora, lo que nos asusta.

Sin embargo, todavía se comporta de manera fundamentalmente humana.

VEA TAMBIÉN: 10 CHARLAS ESENCIALES DE TED SOBRE INTELIGENCIA ARTIFICIAL

El tipo de IA que tenemos hoy se puede describir como una Inteligencia Funcional Artificial (AFI). Estos sistemas están programados para desempeñar una función específica y para hacerlo tan bien o mejor que un humano. También han tenido más éxito en esto en un período de tiempo más corto de lo que casi nadie predijo, venciendo a oponentes humanos en juegos complejos como Go y Starcraft II, que la gente conocedora pensó que no sucedería durante años, si no décadas.

Si bien podemos participar en un humor negro sobre nuestra necesidad de dar la bienvenida a nuestros señores robots, no existe ningún riesgo real de que estos sistemas representen el tipo de riesgo del que hablaba Hawking. AlphaGo podría vencer fácilmente a todos los jugadores humanos de Go desde ahora hasta la muerte por calor del Universo, pero pregúntele por las condiciones climáticas actuales y carece de la inteligencia de incluso los organismos unicelulares que responden a los cambios de temperatura.

Lo que pensamos cuando hablamos de una IA peligrosa es lo que los científicos de la computación llaman Inteligencia General Artificial (AGI), un sistema artificial que emula por completo la mente humana y es tan inteligente como un ser humano en cualquier área del conocimiento, excepto que puede piensa miles de millones de veces más rápido de lo que podemos. Esto es lo que las películas tienden a representar como Skynets increíblemente peligrosos empeñados en acabar con la humanidad, pero por aterrador que parezca, esta no es la verdadera preocupación.

Por muy amenazador que pueda parecer este sistema, es probable que nunca veamos realmente un AGI. La verdadera preocupación es qué hay un paso más allá de AGI.

Construyendo más allá de la inteligencia a nivel humano

El problema con el desarrollo de AGI en el sentido tradicional es que es imposible programar un árbol de decisiones para cada pregunta que un AGI tendría que resolver. Siempre habrá algo que debe hacer para lo que simplemente no está programado, como preguntarle a AlphaGo el clima.

Los seres humanos afrontamos este desafío todo el tiempo y es nuestra capacidad de aprender y formar nuevas conexiones en nuestro cerebro lo que nos hace capaces de una inteligencia sofisticada y de resolución de problemas. Si no sabemos cómo resolver un problema, podemos analizarlo y encontrar una respuesta. Es esta habilidad la que recién ahora estamos comenzando a desarrollar en los sistemas de inteligencia artificial más avanzados que tenemos y es realmente algo de la edad de piedra en el gran esquema de las cosas.

Para alcanzar realmente el AGI, un sistema necesita una herramienta clave que los humanos dan por sentado, en gran parte porque es automático. Necesita poder reescribir su programación para hacerse más inteligente, de la misma manera en que la biología humana reconecta automáticamente el cerebro para aprender cosas nuevas. Aquí es donde las implicaciones y preocupaciones sobre la inteligencia artificial, las preocupaciones científicas genuinas más que la versión de Hollywood, comienzan a tomar forma.

Supongamos que programamos un sistema que podría reescribir su propia programación para hacerse más inteligente en cualquier tema, habilidad o habilidad de la que sean capaces los humanos. Al principio, no sería muy inteligente en absoluto, pero cada refinamiento sucesivo, a su vez, mejoraría su capacidad de mejorarse a sí mismo. Cada pequeño paso incremental se basará en el último, creciendo exponencialmente.

Llegará un punto en este proceso en el que el sistema dejará de ser un AFI. Como un sólido sublimando en su estado gaseoso, este AFI parecería pasar AGI por completo a medida que su crecimiento en inteligencia se vuelve explosivo, un momento que la reconocida autoridad de inteligencia artificial Nick Bostrom llama el despegue ASI. Está literalmente más allá de nuestra capacidad imaginar cómo es realmente este tipo de inteligencia.

¿No podemos simplemente desenchufar una superinteligencia artificial?

Esta es generalmente la respuesta más común del público cuando piensa en una IA desbocada al estilo Skynet. Simplemente desenchúfelo o algo igualmente mundano como si una superinteligencia artificial fuera un módem que necesitara ser reiniciado. Ya sabemos que esto no funcionará, de la misma manera que no se puede eliminar un virus informático o detener su propagación apagando una computadora infectada. Una vez que la infección está ahí, es demasiado tarde.

Si un virus puede incrustarse en un sistema para resistir ser eliminado o copiarse e infectar otros sistemas antes de que sepamos lo que está sucediendo, una superinteligencia artificial sería infinitamente más difícil de eliminar. Peor aún, con algo así de inteligente, podría descubrir formas de preservarse a sí mismo que pensaríamos completamente imposibles porque carecemos de la inteligencia para saber cómo lograrlo, como intentar concebir la física de un avión mientras tenemos la capacidad cerebral de un babuino. .

Podríamos parecer que apagamos una superinteligencia artificial solo para verla reaparecer en el otro lado del mundo como por arte de magia y nunca sabríamos cómo pudo llegar allí.

Entonces, ¿por qué hacerlo?

Esta es la pregunta que nos hacemos naturalmente, pero el problema es que no existe una forma real de desarrollar un sistema que sea ni siquiera un porcentaje significativo de AGI que no requiera ceder el control del crecimiento y desarrollo del sistema a la IA misma, la forma en que el El desarrollo de nuestra propia inteligencia es una función automática de nuestro cerebro formando nuevas conexiones neuronales por sí solo.

Si queremos ir más allá de los AFI rudimentarios que tenemos actualmente, entonces tenemos que asumir que una superinteligencia artificial es tan inevitable como lo fueron las armas nucleares después de dividir el átomo para usar la fisión nuclear como fuente de energía. En última instancia, la única forma de evitar que surja una superinteligencia artificial es detener cualquier desarrollo adicional de la inteligencia artificial, lo que no parece probable ni posible en este momento.

Así como una superinteligencia artificial tiene un potencial infinito de daño, también puede ser beneficiosa, al menos para sus creadores. Si tiene dos naciones adversarias, ¿cómo podría una nación confiar en la otra con un sistema tan poderoso? Así como el lanzamiento del Sputnik por parte de la URSS sacudió al naciente programa espacial estadounidense a toda marcha, el desarrollo de la IA ya está lo suficientemente avanzado como para que nadie quiera quedar en segundo lugar en la carrera de la IA. La desventaja de quedarse atrás es simplemente demasiado grande.

Si los incentivos son mayores en el lado del desarrollo de IA más sofisticadas que cualquier otro, entonces una carrera armamentista de IA es inevitable y, como ya hemos visto, no hay camino hacia AGI que no produzca un ASI casi de inmediato. después. Entonces, si su aparición está casi garantizada cuanto más investigamos y desarrollamos inteligencia artificial, entonces tienes aún más incentivo para ser quien la desarrolle primero. De esa manera, tienes la mejor oportunidad de que la superinteligencia sea benévola contigo, o al menos no hostil.

Bienvenido al dilema del prisionero de la inteligencia artificial.

¿Deberíamos temer a la superinteligencia artificial?

Por supuesto.

Como con todo desarrollo tecnológico, siempre hay consecuencias no deseadas, y una vez que tenemos una superinteligencia artificial, no hay vuelta atrás.

Sin embargo, debemos recordar que está en nuestra naturaleza ver la amenaza que plantea un sistema de este tipo porque estamos programados por la evolución para detectar el peligro y evitarlo. Algo tan poderoso de hecho podría decidir, y probablemente tendría el poder, para exterminar toda la vida humana si su objetivo era preservar la vida en general del planeta. Después de todo, la mayor amenaza para la vida en la Tierra es la civilización humana.

Pero, si tiene ese poder, tendría el mismo poder para prevenir o incluso revertir el Cambio Climático, y ahí radica la elección que la humanidad debe tomar.

Así como las desventajas potenciales de un ASI son infinitas, es igualmente imposible poner un límite a lo bueno que algo como esto puede lograr. Pensemos lo que pensemos, un ASI tiene el potencial de hacer más. El cambio climático, la erradicación de enfermedades, el fin de la necesidad y la hambruna, el fin de la muerte misma e incluso los viajes más rápidos que la luz a galaxias distantes son todos tan concebibles, y tal vez incluso más probables, como resultado de un ASI que del inmortal. , monstruo dictatorial malévolo contra el que advierte Elon Musk.

Tenemos todas las razones para creer que, al final, un ASI funcionará en nuestro beneficio. Cada avance tecnológico ha tenido un costo, pero la civilización humana ha avanzado debido a ello. Al final, los seres humanos tienen un historial sólido en lo que respecta a la tecnología. Sí, podemos producir armas de increíble destructividad, pero también podemos erradicar la viruela y la polio. Hemos conquistado en gran medida el hambre tal como está e incluso las guerras están en constante declive.

Si nuestro futuro se parece en algo a nuestro pasado, entonces podemos ser justificadamente optimistas sobre el futuro de la inteligencia artificial. Entonces, una superinteligencia artificial será lo que hagamos con ella, así como los niños son más que el producto biológico de sus padres, por lo que es fundamental que decidamos como civilización qué tipo de superinteligencia artificial deseamos crear.


Ver el vídeo: Respondemos las dudas más frecuentes sobre la inteligencia artificial (Enero 2022).