Cuando se inicia sesión en una red social los usuarios quieren observar las vivencias de sus seguidores o contactos, publicar un momento que desean conservar o del que están orgullosos, o tal vez enterarse de la actualidad de su país.
Pero las plataformas digitales se han convertido, en ciertos casos, en el medio para difundir y provocar violencia con imágenes a las que pueden acceder niños, jóvenes y adultos con solo un clic. Por ello, uniéndose a la lucha contra la violencia, el acoso y la suplantación, Facebook, Instagram y Twitter han puesto a disposición de los usuarios normas y medidas de prevención.
En las políticas y pautas generales de esta red se identifica que no se pueden hacer amenazas violentas concretas ni expresar el deseo de que una persona o un grupo sufra daños físicos graves, enfermedades o la muerte.
'Los tuits que incumplen esta política contienen amenazas violentas o glorifican la violencia', se lee en el centro de ayuda de la plataforma.
Las cuentas en las que se descubran publicaciones de esta índole se suspenderán de forma permanente, como se enuncia en su portal.
Hace pocos días, mediante una actualización de la red, se introdujo la norma en la que no se puede promover ni incitar el suicidio o las autolesiones.
Si Twitter recibe una denuncia de que una persona está amenazando con suicidarse o autolesionarse tomará una serie de medidas para ayudarla; por ejemplo, se comunicará con la persona para ofrecerle recursos, por ejemplo, la información de contactos en temas de salud mental.
En las políticas de uso de Facebook se informa que en casos en los que se confirme que existe riesgo real de daños físicos o amenazas directas a la seguridad pública, se eliminará el contenido, inhabilitará las cuentas y colaborará con las autoridades locales.
También tienden a suprimir contenido que identifique a víctimas o sobrevivientes de autolesiones o suicidios con la intención de atacarlos, ya sea en serio o en broma.
Aunque tienen esta normativa, una de las noticias que ha revolucionado a los amantes de las redes es que en el estand de Facebook de la cumbre política realizada en Estados Unidos, la Conferencia de Acción Política Conservadora –por sus siglas en inglés CPAC–, se dio la oportunidad de probar productos de Oculus, propiedad de Facebook, entre los que se encontraba contenido con armas y violencia.
Un video en el que se veía uno de los juegos con armas se publicó en Twitter y la indignación estalló, debido a que los usuarios cuestionaron la moral de la red social, con sede en California.
Facebook retiró el viernes el juego de armas de realidad virtual y admitió que la demostración fue un error tras el reciente tiroteo mortal en una escuela de Florida, en Estados Unidos.
'Eliminamos la demostración y lamentamos no haberlo hecho al principio', escribió el vicepresidente de realidad virtual de Facebook.
Se puede denunciar una cuenta que tenga como fin acosar o hacer matoneo a alguien.
Por su parte, si se ha encontrado contenido o fotos que indican que alguien podría estar expuesto a un peligro físico relacionado con la trata de personas, la red invita a llamar al 112 o contactar con la autoridad local competente.
También obtener información acerca de los indicios de trata de personas en la página www.traffickingresourcecenter.org o ponerse en contacto con el Centro Nacional de Recursos para Combatir la Trata de Personas.
En el centro de privacidad y seguridad se informa que si los usuarios ven a una persona compartiendo contenido sobre suicidio o autolesiones se debe denunciar el contenido seleccionando la opción ‘Esta foto supone un riesgo para las personas’, luego, se despliega un menú en el que se debe elegir la opción ‘Autolesiones’. De esta manera la red se pondrá en contacto con la persona y le ofrecerá información útil.
Además, en sus políticas informa que cuenta con voluntarios formados en el National Suicide Prevention Lifeline con capacitación para orientar sobre el tema. Todas las conversaciones son confidenciales y gratuitas.