Fue en una conferencia con Martín Becerra, Ernesto Calvo y Beatriz
Busaniche. Cómo funciona el sistema de "tierra arrasada" y el ejem
plo del "Caso Maldonado".
Dominar las redes con perfiles falsos, que interactúan, "levantan la
temperatura" y fijan posición, sería la estrategia de Marcos Peña
para controlar la opinión pública.
Ese fue el diagnóstico de una conferencia de Amnistía Internacional
y Centro de Derechos Humanos de la Facultad de derecho de la UBA
sobre "Trolls y fake news", este miércoles en la casa de estudios
ante más de un centenar de especialistas, estudiantes y hasta algunos
diputados nacionales como Araceli Ferreyra, del Movimiento Evita.
Martín Becerra, doctor en ciencias de la información, investigador
independiente del Conicet, participó de un informe de Amnistía Inter
nacional sobre el uso de Trolls y constató "acciones organizadas" en
las redes "contra quienes defienden o denuncian violaciones a los
derechos humanos".
Pero más preciso fue Ernesto Calvo, profesor de Ciencia Política en la
Universidad de Maryland, que investigó los trolling y confirmó que el
modus operandi de Peña dejó evidencia en las semanas de búsqueda
de Santiago Maldonado.
En esos días, explicó, se aplicó la doctrina de "tierra arrasada", que
consiste en contaminan las conversaciones en las redes para expulsar
a los tibios, mediante ataques personales y mucha fake news. Se
detectaron 8 cuentas de torlls y Twitter dio de baja cuatro, después de
varios meses y cuando el caso Maldonado era historia.
"Los trolls hablaban entre ellos y sólo el 1% del tiempo lo usan par
a pegarle a periodistas. Levantan temperatura con un diálogo agresivo,
que expulsaba a los independientes. Para no hablar de un tema, los
políticos toxican el debate", describió.
"Hay trolls porque hay comunidades dispuestas a aceptar un mensaje
afín en términos políticos. Así como también están dispuestos a mofarse
de los otros porque hay un mensaje que sostiene el mismo tipo de
narrativa de la cual participan".
"Por eso las correcciones de las fake news son mucho menos replicadas
que las mismas fake news", explicó. Para Becerra, es indispensable
documentar "cómo se despliega el debate público" y entender su impac
to colectivo para luego tomar medidas que aminoren su impacto negativo.
Y comprender que los trolls logran "un efecto disciplinador en el debat
e público. Cuando una persona ve que a un político o a un famoso lo
atacan a la yugular de forma violenta y piensa: 'qué queda para mí'".
Ninguno de los especialistas tenía claro cómo evitar excesos de las
redes sociales y "motores de búsqueda", instrumentos esenciales
para los trolls y las fake news, armas de cada campaña electoral.
Como explicó LPO, durante su visita al Senado, los directivos de Face
book y Twitter se defendieron con sus políticas de "autocontrol", que
incluye la eliminación de cuentas, pero en ningún caso puede sub
sanar el daño causado.
"Regular la conversación pública en internet no supone una ley estatal.
Se da de facto con las empresas que remueven cuentas o contenidos.
La inexistencia de leyes no significa ausencia de regulaciones", aportó
Becerra.
"Tenemos que definir cómo se construye un sistema dónde se habilita
el debate público", sugirió Beatriz Busaniche, presidente de la Funda
ción Vía Libre. "Si bien son espacios de debate público, necesitamos
empezar a pensar que tipo específico de espacios son la redes en
tanto son empresas privadas", aportó.
Y consideró que los motores de búsqueda sólo pueden tener "res
ponsabilidad subjetiva" por sus contenidos y los pleitos deben de
finirse en la justicia, pero nunca facultar a las compañías de censurar,
como ya hace Facebook con la supresión de imágenes.
"No acepta mujeres con pezones y no es nada malo mostrar una teta.
El problema real es que son espacios de fuerte concentración y pen
sar en qué estamos de acuerdo y qué es lo que incomoda a la socie
dad".
Busaniche alertó que los algoritmos que usan las redes sociales para
guiar las conversaciones están fuera de control. "Estamos generando
mecanismos de la que intervienen en el debate público y no los cono
cemos".
La jornada finalizó con un informe de Azmina Dhrodia, representante
de Amnistía Internacional en Inglaterra, sobre los ataques a mujeres
en las redes, con frases como"Ojalá te violen", "sos una puta", "te
voy a matar".
Su conclusión fue que esos mensajes logran inhibir la actividad
digital de las damnificadas y que es momento de saber "cómo
Twitter entrena a sus capacitadores de inteligencia artificial" y cono
cer "¿Quién modera?" los debates y "¿Cómo lo hace?".
Las secuelas en los niños por acoso en las redes dominaron parte
de las preguntas del público. Calvo aportó un dato preocupante: en
Estados Unidos ya hay apodos ofensivos a los niños que no tienen
una actividad digital.
No hay comentarios:
Publicar un comentario