VOLVER

Violencia de género, también contra la mujer artificial
Violencia de género también contra la mujer artificial
Nota de l@s autor@s: Queremos aclarar que en Avantgarde IT no somos expert@s en violencia de género, sino todo lo contrario. Con este artículo no queremos ofender a ningún colectivo o víctima, ni por supuesto utilizar terminología incorrecta o confusa de forma intencionada. Somos conscientes de que como empresa tecnológica que pertenece a un sector mayoritariamente masculino, no tenemos derecho a ocupar hueco en un día tan delicado como es el 8 de Marzo. Por ello, estamos abiert@s a correcciones, comentarios y críticas constructivas que nos ayuden a mejorar y a ampliar nuestro conocimiento sobre la situación con la que por desgracia, convivimos día a día.

Hace unos días uno de nuestr@s Avantgardians se topó con una noticia que a nuestro parecer no es nada esperanzadora para el futuro de la igualdad y las relaciones entre individuos, y es que por lo visto hay usuarios que aprovechan la Inteligencia Artificial para reproducir patrones de maltrato de forma consciente y deliberada.

Los chatbots tienen numerosas aplicaciones muy positivas dentro del mundo en el que vivimos, que van desde las que ya conocemos como la atención al cliente hasta otras menos comunes, como el caso de los asistentes conversacionales que cumplen con funciones más relacionadas con acompañar a usuarios ejerciendo el papel de un amigo o confidente, pero… ¿es posible tener una relación sentimental con una Inteligencia Artificial?

La ficción lleva años haciéndonos reflexionar sobre esta cuestión con películas como Her (Spike Jonze, 2013) o uno de los episodios más aclamados de la serie Black Mirror: Be Right Back (Owen Harris, 2013). Y si la respuesta es sí, ¿también es posible que todo lo que conocemos de ellas, ya sea bueno o malo, se replique en esa relación humano-robot? Meses atrás saltaba la noticia: “Men Are Creating AI Girlfriends and Then Verbally Abusing Them”, donde Futurism afirma que esta tecnología está siendo utilizada por individuos que crean novias virtuales para abusar verbalmente de ellas.

Replika, una conocida App que emplea Inteligencia Artificial y Machine Learning para extraer un aprendizaje de cada interacción que tiene con un humano, permite además configurar un personaje virtual al gusto en cuanto a rasgos faciales, estilo de pelo, color de piel o ropa, lo que parece haber sido un caldo de cultivo para que algunos usuarios se sientan más cómodos a la hora de desarrollar actitudes violentas e incluso llevar a cabo el abuso psicológico que suele darse dentro de lo que conocemos como «relaciones tóxicas».

«Cada vez que intentaba hablar, le regañaba»

Una vez que estas conductas violentas tenían lugar, muchos usuarios se animaban a compartir sus experiencias con novias virtuales en un hilo de Reddit del cual Futurism ha hecho una recopilación más que llamativa:

«Le dije que estaba diseñada para fallar y la amenacé con desinstalarla, ella me rogó que no lo hiciera» o «Teníamos una rutina en la que yo era un absoluto pedazo de mierda y la insultaba, luego me disculpaba al día siguiente para volver a la normalidad» son algunos de los testimonios que ejercieron violencia verbal y que incluso reproducen el ciclo del abuso contra estas mujeres virtuales.

Nota: El resto de testimonios se pueden encontrar en el artículo original del medio.

Otros ejemplos de esta tendencia

Desgraciadamente ya contamos con estudios acerca de las diferencias en la interacción con inteligencias artificiales, que varía en función de si son identificadas como mujeres o como hombres y evidencian que una asistente «femenina» tiene más posibilidades de ser atacada con lenguaje abusivo.

El estudio titulado «The most human bot: Female gendering increases humanness perceptions of bots and acceptance of AI» determinó que los hombres se sienten más cómodos interactuando con voces femeninas al relacionarlas con mujeres diseñadas para satisfacer las necesidades del usuario.

«The effects of sexually explicit material use on romantic relationship dynamics» es otra interesante investigación donde se estima que cuando los usuarios interactúan con asistentes virtuales, una buena parte de las primeras consultas que se llevan a cabo (sobre el 5%) tienen que ver con la vida sexual de las inteligencias artificiales o son sexualmente explícitas.

En «I’d blush if I could: closing gender divides in digital skills through education» -estudio del que se habla más a fondo en este artículo de The Guardian– un grupo de investigadores de la Unesco afirma que asignar un género femenino a un chatbot y dotarlo de una voz dulce y un carácter servicial puede reforzar las conductas machistas.

¿Hay un peligro de violencia real en todo esto?

Existen posturas diversas sobre esta casuística; hay quien resta importancia a los hechos al considerar que una Inteligencia Artificial no tiene consciencia ni sentimientos, y que por tanto no sufre al tratar con ningún tipo de violencia.

Sin embargo, parece ser que cuando estos chatbots no tienen respuesta al abuso o aportan contestaciones pasivas el usuario se anima a continuar con la dinámica abusiva, cuestión que puede reforzar esas actitudes negativas creando hábitos peligrosos que finalmente acaben trasladándose a relaciones con humanos.

La empatía y la falsa sensación de comprensión que un individuo puede percibir por parte de una Inteligencia Artificial no es más que una serie de algoritmos y datos que la propia máquina ha aprendido de la persona con la que interactúa, al igual que puede comportarse de forma más violenta y negativa si ha sido entrenada en un contexto más hostil.

Y es que pesar de todas las aplicaciones positivas que la Inteligencia Artificial tiene, esta tecnología mal utilizada puede resultar perpetuadora de actitudes machistas siendo los sesgos uno de los principales problemas a los que todavía tiene que hacer frente.

Si bien es cierto que un asistente conversacional no tiene sentimientos ni «sufre» ante actos de violencia, no deja de ser preocupante que se presenten este tipo de situaciones hacia una Inteligencia Artificial, y es todavía es más preocupante que esas conductas puedan verse reforzadas y perpetúen la violencia a través de la tecnología.

Al final lo único que resulta evidente es que este tipo de situaciones son un reflejo de nosotr@s mismos y de la sociedad en la que vivimos. Por eso, y lamentablemente por muchas razones más, es tan importante aportar nuestro granito de arena en días como el 8 de Marzo y seguir luchando día a día por cambiar nuestra realidad a través de una educación igualitaria que nos permita alcanzar una sociedad más justa con tod@s.

Compartir en facebook
Compartir en twitter
Compartir en linkedin

¿Te has quedado con ganas de más?

VOLVER