Un equipo internacional de científicos ha desarrollado unos cálculos teóricos que les han permitido determinar la imposibilidad de los seres humanos para controlar el poder de una IA superinteligente. De ser esto cierto, ¿qué consecuencias supondría para la humanidad?
Con el progreso de la Inteligencia Artificial (IA), más y más científicos se unen para intentar demostrar que no todos estos avances son necesariamente positivos. De hecho, esto ha sido evidenciado en el último estudio publicado en el Journal of Artificial Intelligence Research por parte de un equipo internacional en el que se incluye el Centro para Máquinas del Instituto Max Plank para el Desarrollo Humano. En él, se ha demostrado que, de existir una IA superinteligente, sería absolutamente incontrolable por parte de los humanos.
En palabras del coautor del estudio, Manuel Cebrian, «Una máquina superinteligente que controla el mundo suena a ciencia ficción. Pero ya hay máquinas que realizan ciertas tareas importantes de forma independiente sin que los programadores comprendan completamente cómo las aprendieron. Por lo tanto, surge la pregunta de si esto podría en algún momento volverse incontrolable y peligroso para la humanidad». Ni siquiera los propios investigadores han tenido a lo largo del tiempo una respuesta clara para esto.
Y es que, ¿qué sucedería si esta IA tan poderosa alcanzase Internet? En el pasado, los científicos establecieron diferentes posibilidades que pudiesen ayudar a controlar a la IA. La idea más plausible para ellos estaba relacionada con aislarla de Internet. De esta manera, no podría alcanzar ningún dispositivo técnico que le diese acceso a la Red. Mediante su aislamiento con el mundo exterior, las circunstancias le harían menos poderosa y esto llevaría a que la IA alcanzara otro tipo de objetivos relativos a principios éticos, que sirvieran como ayuda a la humanidad. Sin embargo, esta desconexión total no sería tan fácil de realizar.
Ya hay máquinas que realizan ciertas tareas importantes de forma independiente sin que los programadores comprendan completamente cómo las aprendieron
Este estudio ha puesto de manifiesto los límites que tendría esta idea. Los investigadores intentaron desarrollar un algoritmo que detuviese a la IA superinteligente para que no dañara a las personas. Sin embargo, conforme la investigación seguía su curso, los científicos pudieron observar que este algoritmo de contención es imposible de desarrollar. «Si descomponemos el problema en reglas básicas de la informática teórica, resulta que un algoritmo que ordenaría a una IA no destruir el mundo podría detener inadvertidamente sus propias operaciones. Si esto sucediera, no se sabría si el algoritmo de contención sigue analizando la amenaza, o si se ha detenido para contener la IA dañina», aseguró Iyad Rahwan, Director del Centro para Humanos y Máquinas.
Por consiguiente, esto demuestra que el algoritmo es inutilizable, lo que lleva a que, mediante este método, no podamos saber nunca los daños que podría producir una super IA al mundo. Esto mismo sucede con su propia inteligencia: Nunca podremos averiguar si la IA ha alcanzado un grado superior al de los humanos a este respecto porque el problema de contención que se produce es el mismo que el del caso anterior.
En definitiva, a día de hoy conocemos los beneficios de la Inteligencia Artificial en nuestras vidas, pero, en contraposición, no tenemos la posibilidad de medir los daños que esta podría ocasionar a las mismas. A largo plazo, esto puede resultar muy peligroso para la humanidad, ya que, desgraciadamente, nuestro conocimiento sí que presenta en ocasiones como esta ciertas limitaciones. Al menos, tenemos una cosa clara: alcanzar Internet le daría a una IA superinteligente un poder inimaginable, permitiéndole acceder a todos los datos de la humanidad.
Cortesía de Monita