¿Por qué las asistentes virtuales son chicas de voces sensuales que flirtean con los usuarios?
El sexismo de la inteligencia artificial: Alexa, Cortana y la gran mayoría de asistentes virtuales son femeninas
Cuando Amazon creó el eslogan “ask Alexa” (pregúntale o pídele a Alexa) para su asistente virtual, probablemente no pensó en la naturaleza sexual que tendrían algunas de sus peticiones.
Puede que “ella” presuma de un conocimiento enciclopédico, pero las investigaciones de la compañía sobre comportamientos del consumidor Canvas 8 revelan que algunos usuarios están más interesados en un ligoteo virtual que en buscar información.
Y no es la única fembot (robot humanoide de aspecto femenino) afectada por esto. Por ejemplo, la cálida voz de Cortana, la asistente personal de Microsoft, también levanta pasiones.
Desde los avatares femeninos de sonrisa permanente hasta los hipersexualizados fembots que complacen las fantasías masculinas, la forma femenina está en todas partes del mundo tecnológico: atractiva, servicial y a tus órdenes.
La marca de vodka sueca Svedka lleva años utilizando una sensual sexbot (robot sexualizado) femenino como imagen publicitaria que habla de “puntos V estimulantes”.
Un poco más conservadora, pero igualmente deseosa de complacer, es la asistente virtual personal Amy Ingram, creada por la startup neoyorkina X.ai.
“Siempre a su servicio”, la planificadora de reuniones ha recibido todo tipo de regalos -desde flores hasta bombones- de clientes satisfechos que parecen no ser conscientes de que “ella” tan solo es un algoritmo capaz de aprender.
Luego está Amelia, la melosa chatbot de la multinacional estadounidense IPSoft. Además de un gran número de bots bancarios femeninos -las Ericas, Cleos, Pennys y Ninas– que dispensan información sobre horarios de apertura y tu saldo bancario.
Y solo son apenas un ejemplo. Pero ¿por qué la industria tecnológica es tan sexista?
Desigualdad de género
Las mujeres apenas suman el 30% de la fuerza de trabajo en el sector tecnológico, según cifras emitidas por Apple, Google, Facebook y Amazon.
¿Está esta desigualdad de género afectando a los productos que fabrica la industria?
Ileana Stigliani, profesora adjunta de diseño e innovación de la Escuela de Negocios del Imperial College de Londres, Reino Unido, dice que la respuesta es un rotundo sí.
“Si quienes enseñan a las computadoras a actuar como humanos son (mayoritariamente) hombres, hay una gran posibilidad de que los productos resultantes tengan un sesgo de género“, dice.
“Esto podría explicar por qué hay fembots sexualizadas con una visión del mundo que refleja las normas sociales del grupo que las creó. Por ejemplo, hombres blancos“, explica la especialista.
En esa idea coincide Noel Sharkey, docente emérito de inteligencia artificial y robótica de la Universidad de Sheffield, en Yorkshire, Reino Unido.
“Cosifica a las mujeres y perpetúa los estereotipos de género, y ninguna de estas dos cosas resulta útil a la hora de atraer a más mujeres a la industria, la cual necesita más equilibrio y diversidad”, sostiene.
Missy Kelley es directora de diseño de inteligencia artificial de la agencia digital Huge, con base en Nueva York, EEUU, y cree que las chicas jóvenes suelen interesarse en la tecnología pero a menudo se sienten decepcionadas por una cultura de aprendizaje centrada en los hombres.
Entre 2000 y 2012, la cifra de mujeres interesadas en graduarse en informática cayó en un 64%, según en Centro Nacional para Mujeres y Tecnología de la Información de Estados Unidos.
“Los hombres han gestionado la manera en que se enseña y continúan haciéndolo“, asegura Kelley. Las instituciones educativas, por supuesto, juegan un papel importante en cómo tratan de corregir este desequilibrio de género.
Pero la responsabilidad también recae en las empresas tecnológicas, las cuales deberían aplicar un enfoque más neutro a los robots que construyen.
Robots “neutrales”
Algunas startups ya están tomando cartas en el asunto.
“Las compañías tecnológicas más progresistas admiten que si un bot hace su trabajo adecuadamente no hay necesidad de promocionarlo como una mujer rubia y sonriente“, dice el presidente de la empresa Rainbird, James Duez.
“Eso pone distancia entre el software que creamos y gran parte de la población. Y, como empresa tecnológica, tenemos responsabilidad en cómo influenciamos a los jóvenes”.
Y es que, dejando las apariencias a un lado, una máquina de aprendizaje que nace del sexismo solo puede ser sexista.
“Enseñar al robot a ignorar las malas ideas es fundamental”, dice Kriti Sharma, vicepresidenta de bots e inteligencia artificial en Sage Group.
Sharma lideró el diseño de Sage Peg, la primera chatbot de la empresa que les recuerda a los clientes si deben una factura o superaron su presupuesto. Dejó claro desde el principio que el bot no sería femenino.
“No encontré ninguna resistencia por parte de los diseñadores”, explica. “Creo que la cuestión es más bien que la gente sigue la norma y hace lo que siempre se ha hecho sin pensar realmente en el impacto“, explica. “Pero una vez que se creamos un marco cultural, todo el mundo se mostró muy receptivo”.
Y, al contrario que algunas de las chatbots famosas por su capacidad de juego y flirteo -con bromas sexuales incluidas- Sage Peg afronta cualquier comentario fuera de lugar volviendo a las finanzas.
Y eso parece ser suficiente para reducir la fogosidad de muchos de sus clientes.
– Caroline Bullock