Quantcast
Channel: HUMANIDAD Y COSMOS
Viewing all articles
Browse latest Browse all 1457

SE FILTRÓ QUE FACEBOOK MANIPULÓ LAS CUENTAS DE 700.000 USUARIOS PARA HACER UN EXPERIMENTO PSICOLÓGICO CON SUS EMOCIONES

$
0
0
La mayor red social del mundo trató de analizar los comportamientos de las personas cuando observaban noticias positivas o negativas, sin aviso o consentimiento.

A un grupo de usuarios Facebook le
enviaba noticias positivas y a otro,
negativas para estudiar su
comportamiento.
Facebook se enfrenta a una nueva polémica acerca de su privacidad tras descubrirse que había llevado a cabo un experimento tratando de analizar el comportamiento y emociones de689.003 perfiles de usuarios de su red social, la más grande del planeta. El problema es que lo hizo sin su consentimiento tácito y de forma invisible.

El ensayo, de dudosa aceptación social, se conoció ahora, al conocerse la publicación del estudio en la web de la Academia Nacional de Ciencias de Estados Unidos y también la investigación fue publicada en la revista Proceedings de la Academia Nacional de Ciencias de Estados Unidos (PNAS) el pasado 17 de junio de 2014.

El experimento sin consentimiento de
los usuarios afectó a 689.003 perfiles
de habla inglesa.
El experimento sin autorización de los usuarios consistió en manipular el algoritmo que selecciona las noticias que aparecen en el muro de cara usuario con el objeto de observar si existe un «contagio emocional» entre las personas. Para ello, los ingenieros enviaban deliberadamente a un grupo de usuarios noticias positivas y alegres mientras que al otro grupo escogido se hacía lo contrario, es decir, se les proporcionaban noticias cargadas de connotaciones negativas.

Una de las conclusiones fue que los usuarios que observan historias menos negativas en su «feed» de noticias son menos propensos a escribir un mensaje negativo. Y viceversa. Por tanto, la influencia social dictamina nuestro estado de ánimo. Además, los estados emocionales se pueden transmitir entre personas que no están juntas físicamente y sin que interactúen entre ellas.

Los experimentadores ocultos
concluyeron que "existen evidencias
de contagio emocional a escala
masiva a través de redes sociales".
El estudio concluyó que una menor exposición a posteos de contenido positivo provoca una menor transmisión y comunicación de informaciones de esta índole, y viceversa. Es decir: la comunicación textual tiene un impacto determinante en la transmisión de emociones. «Las emociones expresadas en las redes sociales influyen en nuestro estado de ánimo», según las conclusiones del estudio, titulado «Evidencias experimentales de contagio emocional a escala masiva a través de redes sociales».

«Estos resultados indican que las emociones expresadas por otros a través de Facebook influyen en las nuestras y que, frente a las asunciones previamente establecidas, las interacciones no verbales no son estrictamente necesarias para el contagio emocional», según el estudio.

El experimento, realizado en colaboración con dos universidades de Estados Unidos (Cornell y San Francisco), duró solo una semana (del 11 al 18 de enero de 2012), pero sus implicaciones van más allá al tener en cuenta que es una nueva demostración de que el usuario no es el gestor total de su cuenta. Para el estudio se recogieron perfiles exclusivamente escritos en inglés.

Los expertos Adam Kramer, Jamie Guillory y
Jeffrey Hanckock analizaron cerca de 3 millones
de comentarios de los usuarios con los que
estaban experimentando.
Con todo, el equipo de expertos liderado por los doctores Adam Kramer, de Facebook; Jamie Guillory, de la Universidad de California y Jeffrey Hancock, de la Universidad de Cornell, analizaron cerca de tres millones de comentarios y emplearon su propio código para caracterizar su lenguaje como positivo o negativo.

La polémica surgida a raíz de un estudio elaborado por la Academia Nacional de Ciencias de Estados Unidos, ha obligado a Facebook a salir al paso y pedir serias disculpas por su actuación. Sin embargo, usuarios y analistas han criticado la forma en la que se llevó a cabo la investigación y han mostrado su preocupación acerca de los riesgos que puede tener.

El manipulador Mark Zuckerberg, el
dueño de Facebook y Whatsapp.
Todo indica que en la cuestionada red social de Mark Zuckerberg no existe la ética ni escrúpulos para experimentar con las sensaciones de sus usuarios.Tampoco oculta queel conocimiento adquirido a partir de este experimento se pueda aplicar a la publicidad contratada en su interior.

El peligro de la manipulación de tus sentimientos mediante una red social es que esto podría ser usado en contra de tus intereses. Porque nunca sabremos como ataca Facebook a los usuarios para tener publicidad más adecuada.

En esta red social no existe la
ética ni escrúpulos para experimentar
con las sensaciones de sus usuarios.
Un anuncio de detergentes, de perfumes o de un automóvil intentará manipular tus sentimientos para que creas que no puedes estar sin ese producto o servicio.No existe gran diferencia entre lo que ha hecho Facebook o lo que se hace continuamente por televisión.

Manipular las emociones de una persona es más sencillo de lo que se piensa, simplemente con mensajes indirectos. La publicidad lo lleva haciendo décadas y estas empresas, se llamen Facebook, Twitter, Google, Yahoo, Microsoft o como sea, dependen de tus emociones para que tú sigas creyendo en ellas y sigas siendo un usuario fiel que paga, visita o da datos para que se siga creando una relación de necesidad mutua.

El peligro de la manipulación de los sentimientos
mediante una red social podría ser usado en
contra de los intereses de los mismos usuarios.
En todo caso, queda la sensación de que gracias a la publicación del estudio se ha conocido este experimento, pero cualquiera podría ser objeto de muchos otros por parte de los analistas de datos de Facebook sin necesidad de avisar. Según sus términos de uso, de manera explícita, al tener un perfil se da permiso a acceder para “operaciones internas, resolución de problemas, análisis de datos, experimentos, investigación y mejoras en el servicio”.

Existe un dicho en Internet que, con muchas variaciones, es más o menos así: “Si usas un producto gratuito y no pagas un céntimo por ello, entonces tú eres el producto”. Esto es lo que han aprendido miles de usuarios, sobre la realidad de que Facebook está aprendiendo como es capaz de manipularnos, algo que no debería escandalizarnos en sí, pero sí la forma de hacerlo.

Existe un dicho en Internet: "Si usas
un producto gratuito y no pagas un céntimo
por ello, entonces tú eres el producto".
Facebook hace dinero gracias a la publicidad en sus aplicaciones y en su sistema. Esto es algo lógico, lo hacen millones de otras páginas, pero la gran diferencia con el 99,9% del resto de Internet con Facebook es que los demás no poseen tantos datos personales y privados como los que tiene Facebook. Eso es muy pero muy peligroso para el usuario.

La organización de protección de consumidores Consumer Watchdog ha criticado públicamente a la empresa. ”Hay una regla aceptada desde hace mucho tiempo por la comunidad científica, en el sentido que la investigación que involucre a seres humanos requiere el consentimiento informado de éstos. Es evidente que estos científicos no contaban con tal consentimiento”, dijo John M. Simpson, director del Proyecto de Privacidad de Consumer Watchdog, agregando que “el comportamiento poco ético y desvergonzado no es novedad al tratarse de Facebook, sin embargo, los investigadores académicos involucrados en el proyecto y de la Academia Nacional de Ciencias, que publicó los resultados, deberían estar avergonzados”.

Autoridades reguladoras en países europeos
investigan el experimento de Facebook y 

podrían aplicarle multas de hasta 500 mil euros.
Ahora el tema ha llegado a las autoridades reguladoras en países europeos. La sede europea de Facebook está en la ciudad de Dublín, Irlanda. El diario británico Financial Times informa que la Oficina del Comisionado de Información del Reino Unido (ICO), ha iniciado una investigación de Facebook. Según el informe, ICO está facultada para obligar a una empresa a cambiar sus políticas y aplicar multas de hasta 500.000 euros.

"Facebook ha manejado su 'suministro de noticias' para un experimento psicológico. Llegó el momento de cerrar tu cuenta de Facebook", se irritó un usuario en Twitter.

Viewing all articles
Browse latest Browse all 1457

Trending Articles