sábado, 10 de noviembre de 2018

Amnistía explicó cómo funciona el equipo de trolls que atribuyen a Marcos Peña

Fue en una conferencia con Martín Becerra, Ernesto Calvo y Beatriz 
Busaniche. Cómo funciona el sistema de "tierra arrasada" y el ejem
plo del "Caso Maldonado".
Amnistía explicó cómo funciona el equipo de trolls que atribuyen a Marcos Peña

Dominar las redes con perfiles falsos, que interactúan, "levantan la
 temperatura" y fijan posición, sería la estrategia de Marcos Peña
 para controlar la opinión pública.
Ese fue el diagnóstico de una conferencia de Amnistía Internacional
 y Centro de Derechos Humanos de la Facultad de derecho de la UBA
 sobre "Trolls y fake news", este miércoles en la casa de estudios 
ante más de un centenar de especialistas, estudiantes y hasta algunos
 diputados nacionales como Araceli Ferreyra, del Movimiento Evita.
Martín Becerra, doctor en ciencias de la información, investigador
 independiente del Conicet, participó de un informe de Amnistía Inter
nacional sobre el uso de Trolls y constató "acciones organizadas" en
 las redes "contra quienes defienden o denuncian violaciones a los 
derechos humanos". 

Pero más preciso fue Ernesto Calvo, profesor de Ciencia Política en la
 Universidad de Maryland, que investigó los trolling y confirmó que el 
modus operandi de Peña dejó evidencia en las semanas de búsqueda
 de Santiago Maldonado.
En esos días, explicó, se aplicó la doctrina de "tierra arrasada", que
 consiste en contaminan las conversaciones en las redes para expulsar
 a los tibios, mediante ataques personales y mucha fake news. Se
 detectaron 8 cuentas de torlls y Twitter dio de baja cuatro, después de
 varios meses y cuando el caso Maldonado era historia. 
"Los trolls hablaban entre ellos y sólo el 1% del tiempo lo usan par
a pegarle a periodistas. Levantan temperatura con un diálogo agresivo,
 que expulsaba a los independientes. Para no hablar de un tema, los
 políticos toxican el debate", describió.
"Hay trolls porque hay comunidades dispuestas a aceptar un mensaje 
afín en términos políticos. Así como también están dispuestos a mofarse 
de los otros porque hay un mensaje que sostiene el mismo tipo de 
narrativa de la cual participan".
"Por eso las correcciones de las fake news son mucho menos replicadas
 que las mismas fake news", explicó. Para Becerra, es indispensable
 documentar "cómo se despliega el debate público" y entender su impac
to colectivo para luego tomar medidas que aminoren su impacto negativo.
Y comprender que los trolls logran "un efecto disciplinador en el debat
e público. Cuando una persona ve que a un político o a un famoso lo
 atacan a la yugular de forma violenta y piensa: 'qué queda para mí'".
Ninguno de los especialistas tenía claro cómo evitar excesos de las
 redes sociales y "motores de búsqueda", instrumentos esenciales
 para los trolls y las fake news, armas de cada campaña electoral.
Como explicó LPO, durante su visita al Senado, los directivos de Face
book y Twitter se defendieron con sus políticas de "autocontrol", que
 incluye la eliminación de cuentas, pero en ningún caso puede sub
sanar el daño causado. 
"Regular la conversación pública en internet no supone una ley estatal.
 Se da de facto con las empresas que remueven cuentas o contenidos.
 La inexistencia de leyes no significa ausencia de regulaciones", aportó
 Becerra. 
"Tenemos que definir cómo se construye un sistema dónde se habilita
 el debate público", sugirió Beatriz Busaniche, presidente de la Funda
ción Vía Libre. "Si bien son espacios de debate público, necesitamos 
empezar a pensar que tipo específico de espacios son la redes en
 tanto son empresas privadas", aportó.  
Y consideró que los motores de búsqueda sólo pueden tener "res
ponsabilidad subjetiva" por sus contenidos y los pleitos deben de
finirse en la justicia, pero nunca facultar a las compañías de censurar,
 como ya hace Facebook con la supresión de imágenes.
"No acepta mujeres con pezones y no es nada malo mostrar una teta.
 El problema real es que son espacios de fuerte concentración y pen
sar en qué estamos de acuerdo y qué es lo que incomoda a la socie
dad".
Busaniche alertó que los algoritmos que usan las redes sociales para
 guiar las conversaciones están fuera de control. "Estamos generando 
mecanismos de la que intervienen en el debate público y no los cono
cemos".
La jornada finalizó con un informe de Azmina Dhrodia, representante
 de Amnistía Internacional en Inglaterra, sobre los ataques a mujeres
 en las redes, con frases como"Ojalá te violen", "sos una puta", "te 
voy a matar". 
Su conclusión fue que esos mensajes logran inhibir la actividad
 digital de las damnificadas y que es momento de saber "cómo 
Twitter entrena a sus capacitadores de inteligencia artificial" y cono
cer "¿Quién modera?" los debates y "¿Cómo lo hace?". 
Las secuelas en los niños por acoso en las redes dominaron parte 
de las preguntas del público. Calvo aportó un dato preocupante: en
 Estados Unidos ya hay apodos ofensivos a los niños que no tienen
 una actividad digital. 

No hay comentarios:

Publicar un comentario