A inicios de este año, un grupo de investigadores logró entrenar un algoritmo para crear noticias falsas por sí solo, de manera tan convincente como para tener el potencial de engañar a un público masivo, con mínima intervención humana. Desde entonces, los expertos han esperado poder crear un «antídoto», es decir, una forma en que los sistemas basados en el aprendizaje automático puedan identificar «historias» inventadas.
Pero los estudios de Tal Schuster, estudiante de doctorado en el Instituto de Tecnología de Massachusetts (MIT), demuestran que si bien los programas actuales son excelentes para detectar texto generado por otras máquinas, no reconocen si las noticias son verdaderas o falsas.
uchos sistemas automatizados de verificación de hechos están capacitados utilizando una base de datos de declaraciones verdaderas llamada Fact Extraction and Verification (FEVER). En un estudio reciente, Schuster y su equipo demostraron que los sistemas de verificación de hechos instruidos por el aprendizaje automático tuvieron dificultades para manejar declaraciones negativas. El problema, dicen los investigadores, es que la base de datos está llena de sesgos humanos. Las personas que crearon FEVER tendieron a escribir sus entradas falsas como declaraciones negativas y sus declaraciones verdaderas como declaraciones positivas, por lo que las computadoras aprendieron a calificar las oraciones con declaraciones negativas como falsas.
Eso significa que los sistemas estaban resolviendo un problema mucho más fácil que detectar noticias falsas. «Si creas para ti un objetivo fácil, puedes ganar con ese objetivo», dijo la profesora del MIT Regina Barzilay. «Pero aun así no te acerca más a la separación de noticias falsas de noticias reales».
En definitiva, el segundo estudio demostró que los sistemas de aprendizaje automático hacen un buen trabajo al detectar historias que fueron escritas a máquina, pero no al separar las verdaderas de las falsas.
El punto es que, si bien se pueden generar noticias falsas de manera más eficiente utilizando texto automatizado, no todas las historias creadas por procesos automatizados son falsas. Los bots de texto pueden diseñarse para adaptar historias reales para diferentes audiencias, o convertir estadísticas en artículos de noticias verdaderas, pero por el momento el aprendizaje automático no es eficiente a la hora de detectar noticias falsas. - periodismo.com
0 Comentarios