Facebook estuvo realizando experimentos psicológicos con al menos 689 mil perfiles sin pedirles permiso o darles una advertencia para analizar su comportamiento.
En una publicación hecha por “El País”, se explica que la red social alteró su altgoritmo en su centro de noticias para que unas personas vieran noticias positivas y otras, negativas.
El estudio fue revelado por la Academia Nacional de Ciencias de Estados Unidos que describió que la gente que veía los comentarios malos evitaba comentar alguno de ellos hasta en 90% de los casos y esto afecta su propio ánimo.
Lo anterior significa que estas personas, dependiendo su grupo, siguieron la tendencia negativa o positiva y publicaban cosas de la misma naturaleza en su perfil.
Adam Kramer, coautor del estudio declaró: “Nos importa el impacto emocional de Facebook en las personas que lo usan, por eso hemos hecho el estudio. Sentíamos que era importante investigar si ver contenido positivo de los amigos les hacía seguir dentro o si, el hecho de que lo que se contaba era negativo, les invitaba a no visitar Facebook. No queríamos enfadar a nadie”, según la publicación.
El estudio ocurrió sólo con perfiles en inglés, hasta donde se sabe, y muchos se han sentido trasgredidos, sin embargo, en las condiciones de uso de la red, esos que generalmente se da “Aceptar” sin haberlos leído, Facebook menciona lo siguiente: “al tener un perfil se da permiso a acceder para operaciones internas, resolución de problemas, análisis de datos, experimentos, investigación y mejoras en el servicio”.
Facebook estudia psicología de sus usuarios
Facebook estuvo realizando experimentos psicológicos con al menos 689 mil perfiles sin pedirles permiso o darles una advertencia para analizar su comp