Por que a última manipulación de emocións de Facebook prexudica á ciencia (e aos seus usuarios).

Imprimir
facebook morde

Nos últimos días desatouse unha polémica porque Facebook utilizou a 700.000 persoas para un estudo sobre contaxio de emocións na rede. A controversia por este estudo, que non é novo, podería acabar co equipo científico da empresa e co coñecemento académico das súas investigacións.
Entre o 11 e o 18 de xaneiro de 2012, os muros de case 700.000 usuarios de Facebook foron manipulados: sen previo aviso, reduciuse a probabilidade de que visen publicacións positivas ou negativas realizadas polos seus amigos (de fala inglesa). Como resultado, os usuarios estudados cambiaron a súa conduta: os que viron menos publicacións positivas, usaron palabras máis pesimistas ao cabo dunha semana e viceversa, os que viron menos negatividade nos seus muros foron algo máis positivos. "Publicaron como media unha palabra emocional menos, de cada mil palabras publicadas, ao longo da semana seguinte", explica Adam Kramer, do grupo de científicos de Facebook, que realizou este experimento xunto con investigadores das universidades norteamericanas de Cornell e California en San Francisco.

O estudo publicouse na rede o 2 de xuño, na revista científica PNAS, sinalando que as emocións son contaxiosas tamén nas redes sociais, como xa se demostrou anteriormente en contornas físicas. Con todo, na última semana, un terremoto de indignación sacudiu os cimentos de Menlo Park, onde Mark Zuckerberg ten o seu cuartel xeral. Varias semanas logo de facerse público o estudo, medios e cidadáns irritáronse ao descubrir como algo inaudito dous eixes do estudo: "manipular" e "emocións". A partir dese momento, as reaccións multiplicáronse ata o extremo: por exemplo, que Facebook podería "matar" a alguén depresivo ao manipular os seus sentimentos e que habería que auditarles "como a unha especie de Doutor Mengele" da rede.
Tal é o ruído xerado, que as axencias de protección de datos de Irlanda e Reino Unido anunciaron que examinarán si produciuse algunha ilegalidade porque non está claro si os termos de uso permitíanlle facelo. Sheryl Sandberg, directora executiva da empresa, dixo que estaban arrepentidos e que lamentaba enfadar aos seus usuarios. O responsable das políticas da empresa en Europa, Richard Allan, asegurou: "Queremos facelo mellor no futuro e estamos mellorando o noso traballo a partir destes comentarios". Kramer, o investigador de Facebook responsable do estudo, tivo que pedir desculpas publicamente.
Toda esta polémica pode terminar cun único chivo expiatorio: o equipo de data scientists que fundou en 2007 Cameron Marlow e que estaba permitindo realizar importantes estudos sobre o comportamento das persoas en contornas dixitais, un coñecemento decisivo no momento que vivimos. Facebook é unha empresa, ten clientes e cotiza en bolsa, e o último que lle gusta é que se lles asocie coa idea de malévolos experimentos de enxeñería social. O ruxe ruxe de que o grupo científico de Facebook desapareza ou deixe de publicar resultados debería preocuparnos.
"Se toda esta polémica serve para que haxa maior transparencia e máis coidado con estes experimentos, benvida sexa; si con isto Facebook pecha ou seu grupo científico e non volvemos saber nada deles, sería a peor noticia de todas", asegura Esteban Moro, especialista en análise de big data non campo das ciencias sociais. Moro, sorprendido coa polémica, tivo coñecemento do experimento traballando con xente deste equipo e pensou que se trataba de "un estudo máis" dous moitos que esta e outras redes sociais realizan para coñecer ou comportamento dos seus usuarios e, como adoitan xustificar, "axudar a mellorar a experiencia".
O grupo científico, en risco
"As conclusións do experimento en realidade non son moi doadas de resumir, os cambios que obteñen son moi pequenos e ademais son cousas que xa se sabían. O problema aquí é a intervención, modificar o comportamento das persoas estudadas", destaca Moro, investigador da Universidade Carlos III. "Como investigadores, forma parte de nosa deontoloxía contar co consentimento informado das persoas cando o facemos nun traballo científico, pero isto é unha plataforma privada", sinala.
Os investigadores non avisaron ás 689.003 cobaias humanas (o 0,04% dos usuarios de Facebook, 1 de cada 2.500) de que se reduciría a probabilidade de que no seu muro desaparecesen de forma natural contidos con palabras positivas (nuns casos) e negativas (noutros). Ao cabo dunha semana, a xente que viu menos publicacións positivas escribiu un 0,1% menos palabras positivas nas súas mensaxes. De forma similar, o outro grupo publicou un 0,07% menos palabras negativas. Como sinala Kramer nas súas desculpas, querían comprobar si é certo o tópico de que nos deprime ver o felices que son as vidas dos nosos amigos: resultou que, si provoca algunha emoción, é xusto a contraria.
En marzo deste mesmo ano, outro grupo mixto de Facebook e científicos sociais chegou ás mesmas conclusións nun estudo que analizaba como influía a choiva nas emocións amosadas na rede -nos entristece- e como estas publicacións contaxiábanse aos amigos que vivían en lugares máis asollados nese momento. Neste estudo publicado por PLoS ONE, no que tamén participou Kramer, estudáronse millóns de usuarios, todos os que viven nas 100 principais cidades de EEUU, durante tres anos. Non houbo críticas, pero tampouco se manipulou ás cobaias.
Non é a primeira vez nin será a última
Si llas manipulou, e séguellas manipulando, nos procesos electorais. En 2010, Facebook foi capaz de mobilizar a 340.000 abstencionistas para que fosen votar nas lexislativas de EEUU: sen consultarlles previamente, a rede fixo aparecer no muro de 61 millóns de norteamericanos un botón que animaba a votar, mostrando aos amigos que xa o fixeron. É dicir, manipulou a millóns de persoas, sen avisalas, para que acudisen ás urnas, aumentando un 0,14% a participación electoral dun país como EEUU. Ninguén se escandalizou cando Nature publicou este experimento en 2012.
"Sorprende a reacción neste caso e que ninguén dixese nada entón. Enténdese que animar á xente a votar é algo bo e crearlles sentimentos negativos non o é", resume Moro, quen traballou en San Diego con varios dos asinantes destes dous últimos estudos, como James Fowler e Nicholas Christakis. "Para min é abraiante que todo o mundo estea abalanzándose contra este estudo cando é algo que xa fixemos", asegura Fowler.
Algo que xa fixeron e que seguen facendo. Como declarou Andrew Ledvina, que formou parte do equipo de científicos de Facebook durante ano e medio. "Non hai proceso de revisión per se. Calquera persoa nese equipo pode poñer en marcha unha proba. Sempre están tratando de alterar o comportamento das persoas", asegura Ledvina no Wall Street Journal, que informa de que este ano son medio centenar as persoas dedicadas a estes traballos. Os estudos científicos de Facebook adoitan publicarse con acceso aberto, sen as restricións habituais das revistas de impacto.
De verdade manipuláronse emocións?
Mentres os seus científicos sexan de alto nivel, e non teñan medo a compartir os seus achados, outros investigadores, os medios e a cidadanía saberán algo do que están cociñando en Menlo Park. "O debate é bo, pero só xorde cando fan públicos os seus resultados. Si todo este ruído provoca que Facebook deixe de publicar estudos non beneficiará a ninguén", lamenta Moro. Fai dous anos aplaudíase desde as páxinas de Nature as posibilidades que esta aposta pola ciencia ofrecían ao mundo da investigación académica. Nunca ninguén tivo tal cantidade de información válida sobre a sociedade contemporánea: cando poñen parte dese coñecemento en mans de investigadores das mellores universidades, polo menos, pode ser de utilidade ao resto da sociedade.
Doutra banda, como sinalou o experto en saúde mental John Grohol, non está en absoluto claro que o experimento afectase realmente ás emocións dos usuarios. Estes traballos céntranse en ferramentas que presupoñen sentimentos en determinadas palabras e oracións, non é un estudo sobre as emocións das persoas. "Chegan ás súas conclusións analizando a linguaxe de pequenas pezas de texto. As actualizacións de estado de Facebook de cando en vez teñen máis dunhas poucas frases. Os investigadores non miden realmente o estado de ánimo de ninguén".
Como recoñece o propio Kramer, "o impacto real sobre as persoas do experimento era o mínimo para detectalo estatisticamente". E no peor dos casos, si de algo serve a manipulación de centos de miles de usuarios neste experimento é para evitarlle sentimentos negativos aos demais 1.300 millóns, como veu defender Monika Bickert, responsable de políticas públicas da compañía. Desde logo, Facebook prefire ternos contentos no seu portal para que pasemos canto máis tempo mellor interactuando todo o posible.
Somos cobaias humanas
Cada vez que un usuario accede á súa páxina de Facebook, hai unha media de 1.500 publicacións esperando a ser vistas. Pero a rede non as mostra todas: as criba ata deixalas en apenas 300. As publicacións de ONG en Facebook pasaron de mostrarse ao 20% dos seus seguidores a só un 1% ou 2%, para fomentar as campañas de pago. É un cribado que se realiza permanentemente, entre as 2.500 millóns de publicacións que se realizan a diario, en función de algoritmos que premian innumerables valores e que, como resultado final, buscan o beneficio da empresa. "É unha plataforma privada, con gastos e intereses, e o produto es ti", resolve o investigador da Carlos III.
O mesmo sucede con outras plataformas de internet, como Google, que ten un coñecemento tan ou máis exhaustivo dos seus usuarios e que realiza nada menos que 20.000 experimentos deste tipo cada ano. Evidentemente, non pide permiso, salvo nos termos e condicións de uso que todo o mundo acepta pero que nunca ninguén le. E un simple cambio no seu motor de procura podería manipular decisiva e inadvertidamente resultados electorais, como asegura este estudo. Por non falar da publicidade que se coa nas nosas vidas a diario tratando de alterar a nosa conduta. Nos centros comerciais, absolutamente todo, desde a música á luz están pensados para manipularnos emocionalmente para fomentar o consumo. "Pero con Facebook sempre chove sobre mollado", resume Moro.