Las técnicas de aprendizaje automático permiten clasificar el sexismo y también identificar discursos de odio
Con ayuda de la inteligencia artificial (IA), las autoridades podrían adelantarse a futuros casos de violencia de género y así evitar que se produzcan, según las conclusiones de Arquitectura de un sistema de ayuda a la prevención de casos de violencia de género, un trabajo final del máster universitario de Ciencia de Datos (Data Science) de la UOC que se apoya en el análisis de datos para crear modelos de aprendizaje automático (machine learning) con los que obtener poblaciones objetivo de posibles agresores y posibles víctimas.
“La IA puede detectar potenciales riesgos de violencia de género a partir de situaciones similares en casos pasados”, afirma Laia Subirats, profesora colaboradora de los Estudios de Informática, Multimedia y Telecomunicación de la UOC. “También puede tener en cuenta múltiples variables de datos provenientes de diferentes bases de datos (juzgados, policía, datos públicos, redes sociales, etc.) para poder tomar las decisiones de forma más informada. Todos estos aspectos y conjuntos de datos son los que se han considerado”, añade.
Como explica Javier Plo Moreno, autor del trabajo, la idea es recopilar datos de los casos de violencia de género que vayan produciéndose. Esos datos son los que conforman los perfiles de agresores y víctimas y, por tanto, los que permiten crear los modelos de aprendizaje automático necesarios. Se trata de un procedimiento para el que se toman en consideración investigaciones previas en distintas áreas.
“El concepto de perfil lo defino como un conjunto de atributos o características que, según investigaciones en sociología, psicología y psiquiatría, son determinantes para que alguien pueda convertirse en agresor o en víctima en un momento dado. La información sobre dichos atributos debería recopilarse cuando se produce un caso”, señala el autor.
Algunos ejemplos de estos atributos son la exposición a abusos en la infancia, un determinado nivel cultural, el hecho de estar en tratamiento psicológico o psiquiátrico, el hecho de contar con medidas de alejamiento o compartir la custodia de hijos, los problemas económicos, la publicación de contenidos sexistas en las redes sociales, las adicciones y los atestados policiales, entre otros. “Bastantes de estos atributos son compartidos entre ambos perfiles: agresores y víctimas. Y los tipos de violencia que podrían contemplarse en cada caso son distintos: violencia económica, emocional, física, sexual, vicaria, laboral y ciberviolencia”, explica Plo Moreno.
De esa forma, el sistema propuesto tiene como objetivo detectar posibles agresores y víctimas tanto para “predecir” futuros casos de violencia como para obtener más información a fin de poder definir estrategias de concienciación y vigilancia donde sea necesario. Esto último sería posible, por ejemplo, “promoviendo la concienciación en las zonas donde se han encontrado más perfiles de posibles agresores, aumentando la vigilancia por parte de los cuerpos de seguridad o incrementando la atención psiquiátrica y psicológica en dichas zonas”, indica el autor del trabajo final de máster (TFM).
Lenguaje sexista en redes
Uno de los aspectos que se analizan para relacionar datos y poder prevenir situaciones de violencia de género es el lenguaje utilizado en las redes sociales, que puede desempeñar un importante papel a la hora de anticiparse a los casos. Como explica Laia Subirats, tutora del TFM y miembro del grupo Applied Data Science Lab (ADaS Lab) de la UOC, el procesado del lenguaje natural ofrece la posibilidad de identificar y clasificar el sexismo y también de detectar discursos de odio, algo que puede lograrse con técnicas de aprendizaje automático.
Asimismo, pueden extraerse temas de los diferentes textos publicados en las redes sociales para ver cuáles son los predominantes. “Esto puede hacerse con la técnica Latent Dirichlet Allocation, que, de hecho, ya se ha aplicado en otros campos, como la detección de ansiedad y depresión en un aborto espontáneo usando datos de Twitter”, indica Subirats.
Además de prevenir casos de violencia de género, el sistema propuesto por el autor del trabajo tiene otras utilidades: por ejemplo, contribuir a aumentar el conocimiento sobre los procesos que llevan a una persona no violenta a serlo en diferentes ámbitos. Es decir, descubrir qué acontecimientos que afectan al estado emocional y psicológico de una persona tienen un papel clave para que esta se convierta en agresor o en víctima, ya que, como explica Javier Plo Moreno, “nadie nace siendo agresor o víctima”. “Estos acontecimientos vendrían definidos por los atributos que se han comentado antes, que finalmente no son otra cosa que sucesos que pueden pasarnos a cualquiera de nosotros. Nadie está libre de ser un posible agresor o una posible víctima“, añade el autor del trabajo.
Las cifras lo corroboran: a pesar de los esfuerzos por combatir la violencia de género desde las instituciones, en América Latina y el Caribe, se encuentran 14 de los 25 países con mayor número de feminicidios en el mundo. Las cifras más recientes del Observatorio de Igualdad de Género de la CEPAL reporta al menos 4,640 casos de feminicidios para 18 países de América Latina y 6 del Caribe, solamente en 2019.
Ciencia útil
Aunque no es la primera vez que se usa la IA para ayudar a combatir la violencia de género, Arquitectura de un sistema de ayuda a la prevención de casos de violencia de género es el primer trabajo que se apoya en el análisis de datos para anticiparse a los casos. Como afirman Subirats y Plo, la mayoría de las aproximaciones al problema se centraban en predicciones numéricas de la evolución de los casos en el tiempo, en estudios de términos relacionados con la violencia de género en redes sociales o en mejoras sobre algún sistema predictivo ya existente en ámbitos muy concretos. Sin embargo, hasta la fecha ninguno planteaba la posibilidad de vincular a posibles agresores y víctimas con antelación.
En cuanto a las posibles dificultades de desarrollar el sistema, en opinión de la profesora colaboradora de la UOC, la principal es evitar sesgos en los datos y en los algoritmos. Además, como explica el autor del trabajo, “sería necesario legislar de alguna forma para poder obtener información personal, ya que los atributos citados se componen fundamentalmente de dicho tipo de información. También sería preciso que las redes sociales proporcionasen datos que ayudaran a los cuerpos y fuerzas de seguridad del Estado a identificar a los posibles agresores y víctimas”.