El “botón rojo” para evitar que la inteligencia artificial controle todo

El sistema ayudaría a bloquear al robot que represente una amenaza para la humanidad

La "maldad" de la inteligencia artificial se ha contado en decenas de veces en cuentos, novelas y películas, como "Terminator".

La "maldad" de la inteligencia artificial se ha contado en decenas de veces en cuentos, novelas y películas, como "Terminator".  Crédito: Paul Gilham/Getty Images

Hay decenas de películas donde la inteligencia artificial podría superar a los humanos y controlar el mundo, como Terminator, Yo, Robot, Ex Machina y un largo etcétera.

Esas historias ya no son sólo de ficción, pues actualmente las máquinas pueden hacer muchas cosas sin interferencia directa de una persona, y cada vez se mejoran esas “mentes”, por lo que científicos creen que la humanidad requiere una especie de “seguro” que ayude a eliminar cualquier amenaza.

Hay investigaciones en las universidades de Oxford y Berkeley, por ejemplo, donde ya se desarrolla un “botón rojo” que ayude a apagar a las máquinas, específicamente aquellas de “aprendizaje reforzado”, en caso de que representen una amenaza real.

Artículos de BBC y de El País revelan que a través de su empresa DeepMind, Google desarrolla ese “gran botón rojo”, que activarían una secuencia de acciones para evitar que dañen el entorno, a un ser humano e incluso a ellas mismas.

“Esta forma de interrupción segura puede ser muy útil para tomar el control de un robot que se está comportando mal y que puede llevar a consecuencias irreversibles”, exponen los autores del estudio.

La inteligencia artificial conocida como de “aprendizaje reforzado” está creciendo, reconoció Juan Antonio Recio, director del departamento de Ingeniería de Software e Inteligencia Artificial de la Universidad Complutense de Madrid.

“Lo que hace el robot es maximizar una especie de función matemática, pero no entiende los conceptos sobre los que trabaja. Como solo entiende fórmulas puede ser posible que exista el problema potencial de que decida ignorar o dañar a los humanos que la han programado, pero es algo improbable”, explicó a El País.

Los responsables del proyecto son Laurent Orseau, de Deep Mind, y Stuart Amstrong, de Oxford, quienes reconocen que es “improbable” que los robots “actúen óptimamente todo el tiempo”.

En esta nota

Google Inteligencia artificial

Suscribite al boletín de Noticias

Recibe gratis las noticias más importantes diariamente en tu email

Este sitio está protegido por reCAPTCHA y Google Política de privacidad y Se aplican las Condiciones de servicio.

¡Muchas gracias!

Más sobre este tema
Contenido Patrocinado
Enlaces patrocinados por Outbrain