La inteligencia artificial es una de las apuestas de las grandes compañías, que están invirtiendo ingentes cantidades de dinero, esfuerzos y recursos en su desarrollo.
Máquinas que son capaces de aprender con autonomía para facilitarnos la vida en cualquier ámbito.
Pero llegará un momento en el que las máquinas superarán la inteligencia de los humanos. Y no, no me lo estoy inventando, ni se trata del título de una película de ciencia ficción. Ésta es la conclusión a la que han llegado especialistas de la compañía Deep Mind (una empresa especializada en inteligencia artificial) y el FHI (Instituto para el Futuro de la Humanidad). De hecho, la informática ha avanzado enormemente desde sus inicios hace 70 años. La potencia de cálculo se ha estado multiplicando por dos cada 18 meses, siguiendo la ley de Moore. Se cree que, si la ley de Moore se sigue cumpliendo, para el año 2030 la capacidad de cálculo de un procesador corresponderá a la de una persona.
La hipótesis es, cuando menos, inquietante. Tanto es así que el clásico “Terminator” parece haber inspirado a Google a la hora de desarrollar y patentar su ya famoso botón rojo.
Con el ánimo de erradicar el miedo a la inteligencia artificial, Deep Mind (empresa que pertenece al gigante Google) y el FHI, han desarrollado un “botón rojo”; un botón de emergencia a través del que podrían evitar la rebelión de las máquinas y poner freno a posibles acciones dañinas.
En qué consiste el botón rojo de Google
Laurent Orseau, científico que trabaja para Deep Mind y Stuart Amstrong, de la Universidad de Oxford, son los responsables de este proyecto.
Según Orseau y Amstrong el botón ha sido creado con el objetivo de evitar que las máquinas puedan seguir una secuencia de acciones dañina para los seres humanos o para su entorno. Para ello han desarrollado un protocolo que permite al operador humano interrumpir el funcionamiento de la plataforma de inteligencia artificial en caso de emergencia y, además, asegurar que el robot no sea capaz de invalidar estas interrupciones.
El gran reto de la inteligencia artificial
La duda de si las máquinas se pueden llegar a rebelar está ahí y cada vez son más los inventos que cuestionan esta posibilidad…
Un buen ejemplo de ello es un robot capaz de decidir si provocar o no dolor a las personas clavándoles una aguja. Su creador, Alexander Reben, buscaba al crear la máquina adentrarse en el candente debate de si la inteligencia artificia es o no peligrosa.
Otro ejemplo es el bot de Microsoft, Tay, diseñado con la intención de mantener conversaciones amenas y divertidas en las redes sociales, pero al que la compañía tuvo que desactivar el día después de su lanzamiento porque comenzó a lanzar cometarios racistas y sexistas en Twitter. ¿Lo recuerdas?
Parece que muchos son los científicos y especialistas que están de acuerdo en que ningún sistema es infalible y que hay que tomar precauciones.
Y aunque un escenario de peligro como el que estamos planteando no es tan probable hoy en día, la tecnología avanza muy rápido, lo mejor es trabajar sobre ello desde ahora.
La clave parece encontrarse en tomar conciencia de la seguridad en el desarrollo de casi todos los algoritmos o robots y que dispongan de la capacidad de desconectar el sistema en un instante. O mejor aún, que cualquier sistema de inteligencia artificial pueda detectar cuando algo no va bien y sea capaz de detenerse de manera automática.
En el mundo de la inteligencia artificial, conseguir tener control humano en cualquier situación de riesgo es sin duda uno de los mayores retos a los que nos enfrentamos.
Como conclusión diríamos que estamos ante un futuro apasionante pero no exento de riesgos si no hacemos bien las cosas.