¿Cuánto debería preocuparnos la “estupidez artificial”?
Stephen Hawking es uno de los que cree que las máquinas podrían acabar con la humanidad. Pero no todos están de acuerdo
Los “optimistas” y los “pesimistas” de la inteligencia artificial están enfrentados en un intenso debate.
Stephen Hawking y otros reconocidos científicos y tecnólogos en todo el mundo llevan tiempo advirtiendo de una posible catástrofe: que la inteligencia artificial se vuelva demasiado inteligente e incluso llegue a convertirse en “una amenaza para la raza humana”.
“Los humanos, que somos seres limitados por su lenta evolución biológica, no podremos competir con las máquinas, y seremos superados“, dijo el físico teórico.
Según Hawking, “el desarrollo de una completa inteligencia artificial podría traducirse en el fin de la raza humana”.
Pero quienes niegan esta idea aseguran que es exagerada y que lo que realmente debería preocuparnos, más que la inteligencia artificial, es la “estupidez artificial”.
Una de las voces en contra más prominentes es la del ingeniero y especialista en ética robótica Alan Winfield, quien trabaja en el Laboratorio de Robótica de Bristol, en Reino Unido.
“Encuentro las afirmaciones de Hawking profundamente inútiles”, explicó el especialista en una entrevista con el programa Hardtalk de la BBC.
“El problema no es inevitable. Hawking habla de una probabilidad muy pequeña basada en una serie de eventos que tendrían que suceder uno detrás de otro para que eso se diera”, dijo Winfield.
“La inteligencia artificial no es muy inteligente. Más bien deberíamos preocuparnos por la estupidez artificial”, aseguró.
Pero ¿a qué se refiere con “estupidez artificial”?
“Miedo y fascinación”
Hawking se implicó por primera vez en este debate en el año 2014.
Pero desde entonces, varias compañías tecnológicas han puesto en práctica medidas de prevención.
En enero de este año, varios empresarios financiaron un Fondo para la Ética y Gobierno de la Inteligencia Artificial apoyado por prestigiosas instituciones estadounidenses, como la Fundación Knight o la Universidad de Harvard.
El creador de LinkedIn, Reid Hoffman, el fundador de eBay Pierre Omidyar, y director del Media Lab del MIT (el Instituto de Tecnología de Massachusetts), Joichi Ito, fueron algunos de los nombres destacados en ese proyecto.
También este año -el pasado septiembre- hubo una colaboración entre Facebook, Google, Microsoft, Amazon y otros gigantes tecnológicos para garantizar “mejores prácticas” de la inteligencia artificial.
Y Google incluso patentó un “botón rojo” para apagarla en caso de peligro extremo.
Sin embargo, Winfield considera que estas actitudes han ido demasiado lejos.
“Nos estamos preocupando sobre un suceso altamente extraordinario de explosión inteligente”, explicó el científico, quien sostiene que la fascinación por la ciencia ficción incrementó los temores de muchos.
“Es una combinación de miedo con fascinación, por eso nos encanta la ciencia ficción”, aseguró.
Escenario irreal
Winfield dice que el escenario que plantea Hawking es irreal.
Y defiende que hay “muchas otras cosas” por las que deberíamos preocuparnos en estos momentos y que conciernen a las áreas en las que debe mejorar la inteligencia artificial.
“Trabajos, militarización, estándares en autos que se manejan solos, en robots, en diagnósticos médicos… ese tipo de cosas sí son problemas actuales (de la inteligencia artificial)”, declaró el eticista.
De acuerdo con Winfield, uno de los problemas filosóficos de la inteligencia artificial es que es muy difícil definirla porque no tenemos una definición satisfactoria de inteligencia natural”.
“Hacer lo correcto en el momento adecuado es una definición de inteligencia”, explica. “Pero eso no sirve de mucha ayuda, desde un punto de vista científico”.
El experto en robótica dice que uno de los aspectos claves de la inteligencia artificial es que lo que creíamos muy difícil que ocurriera hace 60 años -como que las máquinas compitan en ajedrez contra los humanos-resultó ser relativamente fácil”.
“Sin embargo, lo que pensamos que sería muy fácil ha resultado ser enormemente difícil“. Y menciona aspectos como el hecho de que haya que supervisarlas para hacer ciertos trabajos, pues esas máquinas son incapaces de pensar, como sí lo es el cerebro humano.
Alan Bundy, profesor de razonamiento automatizado en la Universidad de Edimburgo en Escocia, Reino Unido, coincide con Winfield.
Bundy dijo que los grandes éxitos en el desarrollo de la inteligencia artificial en los últimos años fueron extremadamente limitados.
¿En qué tenemos que avanzar entonces?
Para Winfield, es fundamental que desarrollemos más la parte teórica -pues la que existe hoy día no está unificada- y hacer innovaciones e investigaciones éticamente responsables.
Pero, por lo pronto, el debate continúa.