Instagram fomenta comportamientos autolesivos en niños y jóvenes

469

BBC

“No tengo ninguna duda de que Instagram ayudó a matar a mi hija”. Esas son las palabras con las que Ian Russell, el padre de Molly, una niña de 14 años que se suicidó en 2017, ha puesto entre las cuerdas a la red social, a la que acusa de exponer “contenido estremecedor” que “anima a autolesionarse.”

Tras la muerte de Molly, la familia analizó las cuentas de las redes sociales que tenía la pequeña. Había contenido sobre la depresión y las autolesiones. “Me acuerdo de encontrar un dibujo que decía lo siguiente: ‘Este mundo es muy cruel, ya no quiero verlo más’“, le contó Russell a la BBC en un programa emitido este martes.

Russell también declaró que Molly accedió a “cuentas de gente que estaba deprimida, que se autolesionaba o que se planteaba el suicidio”. En un primer momento, la red social no quiso pronunciarse demasiado al respecto.
Cuando la BBC trató de contactar a sus responsables, estos no quisieron hacer comentarios. Tan solo emitieron un comunicado asegurando que Instagram “no permite ese tipo de contenido” y que lo elimina de su plataforma. Pero la red social ha roto su silencio.

caption id=”attachment_9811″ align=”aligncenter” width=”660″ Crédito: BBC/caption

“Devastador” y “complicado”

Steve Hatch, director de Facebook -la compañía a la que pertenece Instagram- para Europa del Norte, le contó a la BBC en una entrevista en exclusiva que la muerte de Molly Russell fue un “suceso devastador”.

Hatch le dijo al editor de la BBC Amol Rajan que se sintió “profundamente afligido” cuando escuchó las acusaciones del padre de Molly en las que aseguró que la red social es, en parte, responsable de la muerte de la niña.

“No me puedo ni imaginar cómo se siente el padre de Molly y el resto de la familia”, declaró.

Cuando Rajan le mostró imágenes de autolesiones que supuestamente van en contra de las políticas de Instagram, pero, aún así, disponibles en la red social, el ejecutivo respondió lo siguiente: “Tenemos que asegurarnos de que analizamos estas imágenes y nos aseguramos de que son eliminadas”.

Hatch también dijo que Instagram revisa sus políticas constantemente en todo lo relacionado con imágenes sobre depresión y suicido. “Es un asunto muy complicado”, añadió.

“Trabajamos con expertos que ayudan a diseñar las políticas sobre las imágenes de autolesiones. Es un área muy compleja”. “Los expertos nos dice que cuando esas imágenes son publicadas por personas que están pasando, claramente, por una situación muy difícil, muchas veces lo hacen porque buscan apoyo o ayuda“.

“En esos casos, puede ser muy útil y de mucha ayuda que esas imágenes estén disponibles en la plataforma. Por eso las permitimos y ofrecemos apoyo a quienes las puedan ver”. “Lo que no permitimos son las que aplauden o ensalzan (el suicidio)”.

No quiso, sin embargo, responder a la pregunta de si permite a sus hijos usar Instagram, pero señaló que la red social “trabaja duro” en eliminar ese tipo de imágenes y que también ofrece “mucho apoyo” a la gente.

Filtros de contenido

La BBC buscó en Instagram el contenido que aparecía con el “hashtag” (etiqueta) de “selfharm” (autolesión, en inglés) y encontró imágenes muy explícitas de los usuarios.  La red social creó esos nuevos “filtros de contenido” a partir de otra investigación de la BBC, en la que se resaltó cómo la red social promueve la anorexia y la bulimia.

¡Haz clic para puntuar esta entrada!
(Votos: 0 Promedio: 0)
Cargue Artículos Más Relacionados

Mira además

Educar con amor es la clave para la construcción de una mejor sociedad

Los niños son el pilar para comenzar a formar un mundo mejor. Y, sembrar en ellos una cult…