Saltar al contenido

El modelo estadístico auxilia en la detección de información incorrecta en las redes sociales

04/01/2024
El Modelo Estadistico Auxilia En La Deteccion De Informacion Incorrecta

Un catedrático de Estadística de la Universidad Americana, en colaboración con su equipo de expertos, ha desarrollado un innovador modelo estadístico que se dedica a identificar contenido erróneo o falso en los posts de redes sociales.

La aplicación de la inteligencia artificial y el aprendizaje automático para frenar la proliferación de información errónea avanza a paso agigantado, aunque todavía encontramos un considerable escollo relacionado con los black boxes, es decir, situaciones en las que los investigadores no logran comprender cómo la máquina arriba a realizar una elección similar a la de sus entrenadores humanos.

Error 403 The request cannot be completed because you have exceeded your quota. : quotaExceeded

Detectando contenido erróneo mediante algoritmos estadísticos

Zois Boukouvalas, docente auxiliar en el Departamento de Matemáticas y Estadística de la UA, implementó un dataset de Twitter que contenía tweets con información errónea acerca del COVID-19 para mostrar cómo los algoritmos estadísticos pueden identificar semejante contenido erróneo en las redes sociales en momentos de alta relevancia, como puede ser una pandemia o un desastre.

En colaboración con sus colegas, entre los que se encuentran la estudiante de la UA Caitlin Moroney y la catedrático de Ciencias Computacionales Nathalie Japkowics, Boukouvalas mostró cómo las conclusiones del modelo se alinean con las de los humanos en la investigación recién publicada.

«Estamos interesados en conocer qué procesos mentales o razonamientos sigue una máquina cuando toma decisiones y cómo y por qué se alinean con los de los humanos que la vieron nacer», comentó Boukouvalas. «No queremos que se inhabilite la cuenta de redes sociales de una persona porque el modelo tome una decisión sesgada».

El método usado por el equipo de investigación es una variedad de aprendizaje automático que se apoya en estadísticas. Estos modelos basados en estadísticas resultan efectivos y proveen un camino alternativo para combatir la desinformación.

El modelo demostró un rendimiento de predicción sobresaliente, y catalogó correctamente un conjunto de pruebas de 112 tweets reales y de información errónea con casi un 90% de precisión.

Lo que resalta de nuestro hallazgo es que nuestro modelo logró esta precisión mientras ofrecía transparencia acerca de cómo detectó los tweets con información errónea», expresó Boukouvalas, «Los procedimientos de aprendizaje profundo no pueden llegar a este grado de precisión con transparencia.

Preparación y entrenamiento del modelo

Los investigadores se dispusieron a entrenar el modelo previamente a probarlo con un dataset, ya que la información proporcionada por los humanos puede generar sesgos y black boxes.

Los investigadores catalogaron los tweets como contenido erróneo o real en base a una serie de reglas ya establecidas acerca del lenguaje usado en la información falsa. El equipo también tomó en cuenta las sutilezas del lenguaje humano y las particularidades lingüísticas relacionadas con la desinformación.

Antes de adiestrar el modelo, la catedrática sociolingüista Christine Mallinson de la Universidad de Maryland en el condado de Baltimore identificó los tweets para estilos de escritura asociados con contenido erróneo, sesgos y fuentes de información menos confiables en los medios.

«Una vez que agregamos esos datos al modelo, intentamos desentrañar los factores que subyacen a la división entre la información veraz y la falsa», expresó Japkowicz. «Es un proceso de aprendizaje del contexto y cómo interactúan las palabras».

Ahorita los investigadores se centran en mejorar el interfaz del usuario del modelo, así como su habilidad para identificar contenido erróneo en posts de redes sociales que contengan imágenes u otros elementos multimedia. El modelo estadístico necesitará aprender cómo una variedad de componentes diferentes interactúan entre sí para generar información errónea.

Boukouvalas y Japkowicz aseguran que la inteligencia humana y la alfabetización periodística son fundamentales para frenar la diseminación de contenido erróneo.

«A través de nuestro trabajo, diseñamos herramientas basadas en el aprendizaje automático para alertar y educar al público con el objetivo de erradicar la información errónea, aunque creemos firmemente que en el principio, los humanos deben desempeñar un papel activo para no difundir información errónea», concluyó Boukouvalas.

LEE MÁS ARTÍCULOS SOBRE: Noticias de IA.

LEE LA ENTRADA ANTERIOR: Inteligencia Artificial en la industria fiscal: ¿Es posible automatizar todo?.