Desde Stephen Hawking hasta Elon Musk, algunas de las mentes más importantes del mundo de la inteligencia artificial (IA) han expresado su preocupación de que esta represente una amenaza existencial para nuestra especie.
Pero según un nuevo libro, lo que debe preocuparnos no es que los robots tomen conciencia de sí mismos y se alcen contra sus amos humanos, sino que las máquinas se vuelvan tan buenas en la consecución de los objetivos que les fijamos, que terminemos siendo aniquilados inadvertidamente al establecerles tareas equivocadas.
Te recomendamos: Por qué la inteligencia artificial puede ser racista y machista y cómo puede evitarse
Stuart Russell, profesor en la Universidad de California en Berkeley, es el autor de Human Compatible: AI and the Problem of Control (Compatible con humanos: la IA y el problema del control) y un experto en los avances que el aprendizaje automático ha hecho posibles.
“El meme de Hollywood siempre consiste en la máquina que espontáneamente toma conciencia de sí misma y luego decide que odia a los seres humanos y quiere matarnos a todos”, dijo a la BBC.
También puedes leer: De México a Marte: los mexicanos que trabajan para llegar al planeta rojo
“No es realmente la conciencia maligna, sino su capacidad la que tiene que preocuparnos, solo su capacidad de alcanzar un objetivo mal especificado por nosotros”.
Te puede interesar: Facebook compra empresa que investiga cómo controlar máquinas con la mente
En una entrevista con el programa Today de la BBC, el experto dio un ejemplo hipotético de la amenaza real que, en su opinión, la IA podría representar.
Imagina que tenemos un poderoso sistema de IA que es capaz de controlar el clima del planeta y que queremos usarlo para devolver los niveles de CO2 en nuestra atmósfera a la época preindustrial.
Te puede interesar: Vida minimalisa: ¿De qué se trata y cómo saber si es para ti?
“Y podrías decir, bueno, puedes hacer lo que quieras, pero no puedes deshacerte de los seres humanos. Entonces ¿qué hace el sistema? Simplemente nos convence de tener menos hijos hasta que no queden seres humanos”.
El ejemplo sirve para resaltar los riesgos asociados a que la inteligencia artificial actúe bajo instrucciones en las que los humanos no hemos pensado.
Checa: ¿Por qué odiamos?, el documental de Steven Spielberg que explora lo más oscuro de la mente humana
La mayoría de los sistemas actuales de IA tienen aplicaciones “débiles”, diseñadas específicamente para abordar un problema bien especificado en un área, según el Centro para el Estudio del Riesgo Existencial, de la Universidad de Cambridge, en Reino Unido.
Un momento importante para este campo llegó en 1997, cuando la computadora Deep Blue derrotó al campeón mundial de ajedrez, Garry Kasparov, en un torneo de seis partidas.
Échale un ojo a: Así es como los asistentes virtuales están cambiando nuestra vida
Ese no es el caso de los avances posteriores en inteligencia artificial. El software AlphaGo Zero, por ejemplo, alcanzó un nivel de rendimiento sobrehumano después de solo tres días de jugar Go contra sí mismo.
Usando el aprendizaje profundo, un método de aprendizaje automático que emplea redes neuronales artificiales, AlphaGo Zero requirió mucha menos programación humana y resultó ser un muy buen jugador de Go, ajedrez y shōgi.
Puedes leer: El misterio de Bermeja: la isla que se le perdió a México… y las extrañas teorías que inspiró
“A medida que un sistema de inteligencia artificial se vuelva más poderoso y más general, podría volverse súper inteligente, superior al rendimiento humano en muchos o casi todos los dominios“, dice el Centro de Riesgo Existencial.
Puedes leer: The Eternals, la familia de superhéroes más diversa de Marvel
Y es por eso que, según Russell, los humanos necesitamos retomar el control.
Según Russell, dar a la inteligencia artificial objetivos más definidos no es la solución para este dilema, porque los humanos mismos no estamos seguros de cuáles son esas metas.
“No sabemos que algo no nos gusta hasta que sucede”, dice.
“Deberíamos cambiar toda la base sobre la cual construimos sistemas de IA”, dice, alejándose de la noción de dar a los robots objetivos fijos.
Échale ojo a: Diez documentales sobre el medio ambiente que puedes ver en streaming
“Y una vez que tienes sistemas que funcionan de esa manera, realmente serán diferentes a los seres humanos. Comenzarán a pedir permiso antes de hacer las cosas, porque no estarán seguros de si eso es lo que quieres”.
En especial, dice el profesor Russell, estarían “felices de que los apaguen porque querrán evitar hacer cosas que no te vayan a gustar”.
Checa: Twitter bloqueará todos los anuncios políticos en su plataforma (coff coff Facebook)
“La forma en que construimos la IA es un poco como la forma en que pensamos en un genio dentro de una lámpara. Si frotas la lámpara, sale el genio y dices: Me gustaría que esto sucediera“, dijo Russell.
Te recomendamos: Las críticas de los científicos a la nueva película de Terminator
“Ahora, el problema con los genios en las lámparas es que el tercer deseo es siempre: ‘Por favor, deshaga los dos primeros deseos porque no pudimos especificar los objetivos correctamente”.
“Entonces, una máquina que persigue un objetivo que no es el correcto se convierte, en efecto, en un enemigo de la raza humana, un enemigo que es mucho más poderoso que nosotros”.
Recuerda que puedes recibir notificaciones de BBC News Mundo. Descarga la nueva versión de nuestra app y actívalas para no perderte nuestro mejor contenido.
https://www.youtube.com/watch?v=SZY7ugs_DvI&t=2s
https://www.youtube.com/watch?v=KD1_rWvZnzg&t=6s
https://www.youtube.com/watch?v=KD1_rWvZnzg