Notas
Por qu√© la √ļltima manipulaci√≥n de emociones de Facebook perjudica a la ciencia (y a sus usuarios)
Publicado por: EsMateria.com
¬ŅEncontraste alg√ļn error? Av√≠sanos visitas

Por Javier Salas, de EsMateria.com

En los √ļltimos d√≠as se ha desatado una pol√©mica porque Facebook utiliz√≥ a 700.000 personas para un estudio sobre contagio de emociones en la red. La controversia por este estudio, que no es novedoso, podr√≠a acabar con el equipo cient√≠fico de la empresa y con el conocimiento acad√©mico de sus investigaciones

Entre el 11 y el 18 de enero de 2012, los muros de casi 700.000 usuarios de Facebook fueron manipulados: sin previo aviso, se redujo la probabilidad de que vieran publicaciones positivas o negativas realizadas por sus amigos (de habla inglesa). Como resultado, los usuarios estudiados cambiaron su conducta: los que vieron menos publicaciones positivas, usaron palabras m√°s pesimistas al cabo de una semana y viceversa, los que vieron menos negatividad en sus muros fueron algo m√°s positivos.

‚ÄĚPublicaron como promedio una palabra emocional menos, de cada mil palabras publicadas, a lo largo de la semana siguiente‚ÄĚ, explica Adam Kramer, del grupo de cient√≠ficos de Facebook, que realiz√≥ este experimento junto con investigadores de las universidades norteamericanas de Cornell y California en San Francisco.

El estudio se public√≥ en la red el 2 de junio, en la revista cient√≠fica PNAS, se√Īalando que las emociones son contagiosas tambi√©n en las redes sociales, como ya se hab√≠a demostrado anteriormente en entornos f√≠sicos. Sin embargo, en la √ļltima semana, un terremoto de indignaci√≥n ha sacudido los cimientos de Menlo Park, donde Mark Zuckerberg tiene su cuartel general.

Varias semanas despu√©s de hacerse p√ļblico el estudio, medios y ciudadanos se han soliviantado al descubrir como algo inaudito dos ejes del estudio: ‚Äúmanipular‚ÄĚ y ‚Äúemociones‚ÄĚ. A partir de ese momento, las reacciones se han multiplicado hasta el extremo: por ejemplo, que Facebook podr√≠a haber ‚Äúmatado‚ÄĚ a alguien depresivo al manipular sus sentimientos y que habr√≠a que auditarles ‚Äúcomo a una especie de Doctor Mengele‚ÄĚ de la red.

Tal es el ruido generado, que las agencias de protecci√≥n de datos de Irlanda y Reino Unido han anunciado que examinar√°n si se ha producido alguna ilegalidad porque no est√° claro si los t√©rminos de uso le permit√≠an hacerlo. Sheryl Sandberg, directora ejecutiva de la empresa, dijo que estaban arrepentidos y que lamentaba haber enfadado a sus usuarios. El responsable de las pol√≠ticas de la empresa en Europa, Richard Allan, asegur√≥:‚ÄĚQueremos hacerlo mejor en el futuro y estamos mejorando nuestro trabajo a partir de estos comentarios‚ÄĚ. Kramer, el investigador de Facebook responsable del estudio, ha tenido que pedir disculpas p√ļblicamente.

Toda esta pol√©mica puede terminar con un √ļnico chivo expiatorio: el equipo de data scientists que fund√≥ en 2007 Cameron Marlow y que estaba permitiendo realizar importantes estudios sobre el comportamiento de las personas en entornos digitales, un conocimiento decisivo en el momento que vivimos. Facebook es una empresa, tiene clientes y cotiza en bolsa, y lo √ļltimo que le gusta es que se les asocie con la idea de mal√©volos experimentos de ingenier√≠a social. El runr√ļn de que el grupo cient√≠fico de Facebook desaparezca o deje de publicar resultados deber√≠a preocuparnos.

‚ÄúSi toda esta pol√©mica sirve para que haya mayor transparencia y m√°s cuidado con estos experimentos, bienvenida sea; si con esto Facebook cierra su grupo cient√≠fico y no volvemos a saber nada de ellos, ser√≠a la peor noticia de todas‚ÄĚ, asegura Esteban Moro, especialista en an√°lisis de big data en el campo de las ciencias sociales. Moro, sorprendido con la pol√©mica, tuvo conocimiento del experimento trabajando con gente de este equipo y pens√≥ que se trataba de ‚Äúun estudio m√°s‚ÄĚ de los muchos que esta y otras redes sociales realizan para conocer el comportamiento de sus usuarios y, como suelen justificar, ‚Äúayudar a mejorar la experiencia‚ÄĚ.

El grupo científico, en riesgo

‚ÄúLas conclusiones del experimento en realidad no son muy rese√Īables, los cambios que obtienen son muy peque√Īos y adem√°s son cosas que ya se sab√≠an. El problema aqu√≠ es la intervenci√≥n, modificar el comportamiento de las personas estudiadas‚ÄĚ, destaca Moro, investigador de la Universidad Carlos III. ‚ÄúComo investigadores, forma parte de nuestra deontolog√≠a contar con el consentimiento informado de las personas cuando lo hacemos en un trabajo cient√≠fico, pero esto es una plataforma privada‚ÄĚ, se√Īala.

Los investigadores no avisaron a las 689.003 cobayas humanas (el 0,04% de los usuarios de Facebook, 1 de cada 2.500) de que se reducir√≠a la probabilidad de que en su muro de aparecieran de forma natural contenidos con palabras positivas (en unos casos) y negativas (en otros). Al cabo de una semana, la gente que vio menos publicaciones positivas escribi√≥ un 0,1% menos palabras positivas en sus mensajes. De forma similar, el otro grupo public√≥ un 0,07% menos palabras negativas. Como se√Īala Kramer en sus disculpas, quer√≠an comprobar si es cierto el t√≥pico de que nos deprime ver lo felices que son las vidas de nuestros amigos: result√≥ que, si provoca alguna emoci√≥n, es justo la contraria.

En marzo de este mismo a√Īo, otro grupo mixto de Facebook y cient√≠ficos sociales lleg√≥ a las mismas conclusiones en un estudio que analizaba c√≥mo influ√≠a la lluvia en las emociones volcadas en la red ‚ÄĒnos entristece‚ÄĒ y c√≥mo estas publicaciones se contagiaban a los amigos que viv√≠an en lugares m√°s soleados en ese momento. En este estudio publicado por PLoS ONE, en el que tambi√©n particip√≥ Kramer, se estudiaron millones de usuarios, todos los que viven en las 100 principales ciudades de EEUU, durante tres a√Īos. No hubo cr√≠ticas, pero tampoco se manipul√≥ a las cobayas.

No es la primera vez ni ser√° la √ļltima

Sí se las manipuló, y se las sigue manipulando, en los procesos electorales. En 2010, Facebook fue capaz de movilizar a 340.000 abstencionistas para que fueran a votar en las legislativas de EEUU: sin consultarles previamente, la red hizo aparecer en el muro de 61 millones de norteamericanos un botón que animaba a votar, mostrando a los amigos que ya lo habían hecho. Es decir, manipuló a millones de personas, sin avisarlas, para que acudieran a las urnas, aumentando un 0,14% la participación electoral de un país como EEUU. Nadie se escandalizó cuando Nature publicó este experimento en 2012.

‚ÄúSorprende la reacci√≥n en este caso y que nadie dijera nada entonces. Se entiende que animar a la gente a votar es algo bueno y crearles sentimientos negativos no lo es‚ÄĚ, resume Moro, quien trabaj√≥ en San Diego con varios de los firmantes de estos dos √ļltimos estudios, como James Fowler y Nicholas Christakis. ‚ÄĚPara m√≠ es fascinante que todo el mundo est√© abalanz√°ndose contra este estudio cuando es algo que ya hemos hecho‚ÄĚ, asegura Fowler.

Algo que ya han hecho y que siguen haciendo. Como ha declarado Andrew Ledvina, que form√≥ parte del equipo de cient√≠ficos de Facebook durante a√Īo y medio. ‚ÄĚNo hay proceso de revisi√≥n per se. Cualquier persona en ese equipo puede poner en marcha una prueba. Siempre est√°n tratando de alterar el comportamiento de las personas‚ÄĚ, asegura Ledvina en el Wall Street Journal, que informa de que este a√Īo son medio centenar las personas dedicadas a estos trabajos. Los estudios cient√≠ficos de Facebook suelen publicarse con acceso abierto, sin las restricciones habituales de las revistas de impacto.

¬ŅDe verdad se manipularon emociones?

Mientras sus cient√≠ficos sean de alto nivel, y no tengan miedo a compartir sus hallazgos, otros investigadores, los medios y la ciudadan√≠a sabr√°n algo de lo que est√°n cocinando en Menlo Park. ‚ÄúEl debate es bueno, pero s√≥lo surge cuando hacen p√ļblicos sus resultados. Si todo este ruido provoca que Facebook deje de publicar estudios no beneficiar√° a nadie‚ÄĚ, lamenta Moro. Hace dos a√Īos se aplaud√≠a desde las p√°ginas de Nature las posibilidades que esta apuesta por la ciencia ofrec√≠an al mundo de la investigaci√≥n acad√©mica. Nunca nadie tuvo tal cantidad de informaci√≥n v√°lida sobre la sociedad contempor√°nea: cuando ponen parte de ese conocimiento en manos de investigadores de las mejores universidades, al menos, puede ser de utilidad al resto de la sociedad.

Por otro lado, como ha se√Īalado el experto en salud mental John Grohol, no est√° en absoluto claro que el experimento afectara realmente a las emociones de los usuarios. Estos trabajos se centran en herramientas que presuponen sentimientos en determinadas palabras y oraciones, no es un estudio sobre las emociones de las personas. ‚ÄúLlegan a sus conclusiones analizando el lenguaje de peque√Īas piezas de texto. Las actualizaciones de estado de Facebook rara vez tienen m√°s de unas pocas frases. Los investigadores no miden realmente el estado de √°nimo de nadie‚ÄĚ.

Como reconoce el propio Kramer, ‚Äúel impacto real sobre las personas del experimento era el m√≠nimo para detectarlo estad√≠sticamente‚ÄĚ. Y en el peor de los casos, si de algo sirve la manipulaci√≥n de cientos de miles de usuarios en este experimento es para evitarle sentimientos negativos a los dem√°s 1.300 millones, como vino a defender Monika Bickert, responsable de pol√≠ticas p√ļblicas de la compa√Ī√≠a. Desde luego, Facebook prefiere tenernos contentos en su portal para que pasemos cuanto m√°s tiempo mejor interactuando todo lo posible.

Somos cobayas humanas

Cada vez que un usuario accede a su p√°gina de Facebook, hay un promedio de 1.500 publicaciones esperando a ser vistas. Pero la red no las muestra todas: las criba hasta dejarlas en apenas 300. Las publicaciones de ONG en Facebook han pasado de mostrarse al 20% de sus seguidores a solo un 1% o 2%, para fomentar las campa√Īas de pago. Es un cribado que se realiza permanentemente, entre las 2.500 millones de publicaciones que se realizan a diario, en funci√≥n de algoritmos que premian innumerables valores y que, como resultado final, buscan el beneficio de la empresa. ‚ÄúEs una plataforma privada, con gastos e intereses, y el producto eres t√ļ‚ÄĚ, zanja el investigador de la Carlos III.

Lo mismo sucede con otras plataformas de internet, como Google, que tiene un conocimiento tan o m√°s exhaustivo de sus usuarios y que realiza nada menos que 20.000 experimentos de este tipo cada a√Īo. Evidentemente, no pide permiso, salvo en los t√©rminos y condiciones de uso que todo el mundo acepta pero que nunca nadie lee. Y un simple cambio en su motor de b√ļsqueda podr√≠a manipular decisiva e inadvertidamente resultados electorales, como asegura este estudio. Por no hablar de la publicidad que se cuela en nuestras vidas a diario tratando de alterar nuestra conducta. En los centros comerciales, absolutamente todo, desde la m√ļsica a la luz est√°n pensados para manipularnos emocionalmente para fomentar el consumo. ‚ÄúPero con Facebook siempre llueve sobre mojado‚ÄĚ, resume Moro.

URL CORTA: http://rbb.cl/9wr4
Tendencias Ahora