Facebook lotta con le funzionalità utilizzate per definire i social network

LE CARTE DI FACEBOOK

Mi piace e condivisioni hanno reso il sito di social media quello che è. Ora, i documenti dell’azienda mostrano che sta lottando per far fronte ai loro effetti.

 

SAN FRANCISCO — Nel 2019, i ricercatori di Facebook hanno iniziato un nuovo studio su una delle caratteristiche fondamentali del social network: il pulsante Mi piace.

Hanno esaminato cosa farebbero le persone se Facebook rimuovesse l’icona del pollice in su e altre reazioni emoji dai post sulla sua app di condivisione di foto Instagram, secondo i documenti dell’azienda. I pulsanti a volte avevano causato “stress e ansia” agli utenti più giovani di Instagram, soprattutto se i post non ricevevano abbastanza Mi piace dagli amici.

Ma i ricercatori hanno scoperto che quando il pulsante Mi piace era nascosto, gli utenti interagivano meno con post e annunci. Allo stesso tempo, non ha alleviato l’ansia sociale degli adolescenti e i giovani utenti non hanno condiviso più foto, come pensava la società, portando a un miscuglio di risultati.

Mark Zuckerberg , amministratore delegato di Facebook, e altri manager hanno discusso di nascondere il pulsante Mi piace per più utenti di Instagram, secondo i documenti. Alla fine, è stato lanciato un test più ampio con una capacità limitata di “costruire una narrativa di stampa positiva” su Instagram.

Dal documento: Project Daisy Mark Review – Versione presentata a Mark Deck

messaggistica

• Stiamo rendendo i conteggi dei like privati ​​per tutti su Instagram: non se ne andranno, ma solo diventeranno privati

• Gli adolescenti sentono una vera “pressione per essere perfetti” su Instagram

• Ci auguriamo che rendere privati ​​i conteggi simili contribuirà a ridurre tale pressione

• L’app di Facebook è un’esperienza diversa, non abbiamo intenzione di distribuirla lì

• Le persone non sono particolarmente preoccupate per quanti Mi piace ottengono su Facebook

La ricerca sul pulsante Mi piace è stata un esempio di come Facebook abbia messo in discussione le caratteristiche fondamentali dei social network. Dato che l’azienda ha affrontato una crisi dopo l’ altra in materia di disinformazione , privacy e incitamento all’odio , una questione centrale è stata se il modo di funzionamento di base della piattaforma fosse difettoso, in sostanza, le caratteristiche che hanno reso Facebook Facebook.

Oltre al pulsante Mi piace, Facebook ha esaminato attentamente il suo pulsante di condivisione, che consente agli utenti di diffondere istantaneamente i contenuti pubblicati da altre persone; la sua funzione gruppi , che viene utilizzata per formare comunità digitali; e altri strumenti che definiscono come si comportano e interagiscono online più di 3,5 miliardi di persone. La ricerca, articolata in migliaia di pagine di documenti interni, sottolinea come l’azienda si sia più volte alle prese con ciò che ha creato .

Ciò che i ricercatori hanno scoperto è stato spesso tutt’altro che positivo. Più volte, hanno determinato che le persone abusavano di caratteristiche chiave o che quelle caratteristiche amplificavano il contenuto tossico, tra gli altri effetti. In una nota interna dell’agosto 2019, diversi ricercatori hanno affermato che erano stati i “meccanici fondamentali del prodotto” di Facebook, ovvero le basi del funzionamento del prodotto, a far fiorire sul sito la disinformazione e l’incitamento all’odio.

“I meccanismi della nostra piattaforma non sono neutrali”, hanno concluso.

Dal documento: cos’è il danno collaterale

“Abbiamo anche prove convincenti che le nostre meccaniche di base del prodotto, come la viralità, i consigli e l’ottimizzazione per il coinvolgimento, sono una parte significativa del motivo per cui questi tipi di discorsi prosperano sulla piattaforma”.

“Se l’integrità si oppone a questi problemi, sia per ragioni tecniche (di precisione) che filosofiche, allora il risultato netto è che Facebook, preso nel suo insieme, promuoverà attivamente (se non necessariamente consapevolmente) questo tipo di attività . La meccanica della nostra piattaforma non è neutrale “.

I documenti, che includono presentazioni, discussioni interne, grafici, promemoria e presentazioni, non mostrano le azioni intraprese da Facebook dopo aver ricevuto i risultati. Negli ultimi anni, l’azienda ha modificato alcune funzionalità, rendendo più facile per le persone nascondere i post che non vogliono vedere e disattivando le raccomandazioni dei gruppi politici per ridurre la diffusione della disinformazione.

Ma il modo principale in cui opera Facebook, una rete in cui le informazioni possono diffondersi rapidamente e dove le persone possono accumulare amici, follower e Mi piace, alla fine rimane sostanzialmente invariato.

Molte modifiche significative al social network sono state bloccate al servizio della crescita e del coinvolgimento degli utenti, hanno affermato alcuni dirigenti attuali ed ex. Facebook ha un valore di oltre 900 miliardi di dollari.

“C’è un divario tra il fatto che puoi avere conversazioni abbastanza aperte all’interno di Facebook come dipendente”, ha affermato Brian Boland, un vicepresidente di Facebook che ha lasciato l’anno scorso. “In realtà ottenere il cambiamento può essere molto più difficile.”

I documenti della società fanno parte dei Facebook Papers , una cache fornita alla Securities and Exchange Commission e al Congresso da un avvocato che rappresenta Frances Haugen , un ex dipendente di Facebook che è diventato un informatore. La signora Haugen in precedenza ha dato i documenti al Wall Street Journal . Questo mese, un membro dello staff del Congresso ha fornito le rivelazioni redatte a più di una dozzina di altre testate giornalistiche, incluso il New York Times.

In una dichiarazione, Andy Stone, un portavoce di Facebook, ha criticato gli articoli basati sui documenti, affermando che sono stati costruiti su una “premessa falsa”.

“Sì, siamo un’azienda e realizziamo profitti, ma l’idea che lo facciamo a spese della sicurezza o del benessere delle persone non comprende dove risiedono i nostri interessi commerciali”, ha affermato. Ha detto che Facebook ha investito 13 miliardi di dollari e assunto più di 40.000 persone per proteggere le persone, aggiungendo che la società ha chiesto “regolamenti aggiornati in cui i governi democratici stabiliscano standard del settore a cui tutti possiamo aderire”.

In un post di questo mese, Zuckerberg ha affermato che era “profondamente illogico” che la società desse priorità ai contenuti dannosi perché gli inserzionisti di Facebook non vogliono acquistare annunci su una piattaforma che diffonde odio e disinformazione.

“A livello più elementare, penso che la maggior parte di noi non riconosca la falsa immagine dell’azienda che viene dipinta”, ha scritto.

Quando il signor Zuckerberg ha fondato Facebook 17 anni fa nel suo dormitorio dell’Università di Harvard, la missione del sito era quella di connettere le persone nei campus universitari e portarle in gruppi digitali con interessi e luoghi comuni.

La crescita è esplosa nel 2006 quando Facebook ha introdotto il News Feed, un flusso centrale di foto, video e aggiornamenti di stato pubblicati dagli amici delle persone. Nel tempo, l’azienda ha aggiunto più funzionalità per mantenere le persone interessate a trascorrere del tempo sulla piattaforma.

Nel 2009, Facebook ha introdotto il pulsante Mi piace. Il minuscolo simbolo del pollice in su, semplice indicatore delle preferenze delle persone, è diventato una delle caratteristiche più importanti del social network. La società ha consentito ad altri siti Web di adottare il pulsante Mi piace in modo che gli utenti potessero condividere i propri interessi sui propri profili Facebook.

Ciò ha fornito a Facebook informazioni sulle attività e sui sentimenti delle persone al di fuori del proprio sito, in modo che potesse indirizzarli meglio con la pubblicità. I Mi piace significavano anche ciò che gli utenti volevano vedere di più nei loro feed di notizie in modo che le persone trascorressero più tempo su Facebook.

Facebook ha anche aggiunto la funzione dei gruppi, in cui le persone si uniscono a canali di comunicazione privati ​​per parlare di interessi specifici, e pagine, che hanno permesso alle aziende e alle celebrità di accumulare grandi basi di fan e trasmettere messaggi a quei follower.

Un’altra innovazione era il pulsante di condivisione, che le persone usavano per condividere rapidamente foto, video e messaggi pubblicati da altri sul proprio feed di notizie o altrove. Un sistema di consigli generato automaticamente suggeriva anche nuovi gruppi, amici o pagine da seguire, in base al loro precedente comportamento online.

Ma le caratteristiche hanno avuto effetti collaterali, secondo i documenti. Alcune persone hanno iniziato a usare i Mi piace per confrontarsi con gli altri. Altri hanno sfruttato il pulsante di condivisione per diffondere rapidamente le informazioni, quindi i contenuti falsi o fuorvianti sono diventati virali in pochi secondi.

Dal documento: Project Daisy, Mi piace e confronto social

Quando alle persone è stato chiesto di ricordare un’esperienza che ha indotto un confronto sociale negativo su Instagram, è probabile che attribuiscano quella sensazione negativa ai conta Mi piace .

Facebook ha affermato di condurre ricerche interne in parte per individuare problemi che possono essere modificati per rendere i suoi prodotti più sicuri. Adam Mosseri , il capo di Instagram, ha affermato che la ricerca sul benessere degli utenti ha portato a investimenti in misure antibullismo su Instagram.

Eppure Facebook non può semplicemente modificare se stesso in modo che diventi un social network più sano quando così tanti problemi risalgono alle funzionalità principali, ha affermato Jane Lytvynenko, senior fellow presso l’Harvard Kennedy Shorenstein Center, che studia i social network e la disinformazione.

“Quando parliamo del pulsante Mi piace, del pulsante di condivisione, del feed delle notizie e del loro potere, stiamo essenzialmente parlando dell’infrastruttura su cui è costruita la rete”, ha affermato. “Il nocciolo del problema qui è l’infrastruttura stessa”.

Mentre i ricercatori di Facebook hanno approfondito il funzionamento dei suoi prodotti, i risultati preoccupanti si sono accumulati.

In uno studio sui gruppi del luglio 2019, i ricercatori hanno tracciato come i membri di quelle comunità potrebbero essere presi di mira dalla disinformazione. Il punto di partenza, hanno detto i ricercatori, sono state le persone conosciute come “invita le balene”, che hanno inviato inviti ad altri per unirsi a un gruppo privato.

Queste persone sono state efficaci nel convincere migliaia di persone a unirsi a nuovi gruppi in modo che le comunità si gonfiassero quasi da un giorno all’altro, afferma lo studio. Quindi le balene invitate potrebbero inviare spam ai gruppi con post che promuovono la violenza etnica o altri contenuti dannosi, secondo lo studio.

Un altro rapporto del 2019 ha esaminato come alcune persone hanno accumulato un ampio seguito sulle loro pagine di Facebook, spesso utilizzando post su simpatici animali e altri argomenti innocui. Ma una volta che una pagina è cresciuta fino a decine di migliaia di follower, i fondatori l’hanno venduta. Secondo lo studio, gli acquirenti hanno quindi utilizzato le pagine per mostrare ai follower informazioni errate o contenuti politicamente divisivi.

Mentre i ricercatori hanno studiato il pulsante Mi piace, i dirigenti hanno pensato di nascondere la funzione anche su Facebook, secondo i documenti. A settembre 2019, ha rimosso i Mi piace dai post di Facebook degli utenti in un piccolo esperimento in Australia.

L’azienda voleva vedere se il cambiamento avrebbe ridotto la pressione e il confronto sociale tra gli utenti. Ciò, a sua volta, potrebbe incoraggiare le persone a pubblicare più frequentemente sulla rete.

Ma le persone non hanno condiviso più post dopo che il pulsante Mi piace è stato rimosso. Facebook ha scelto di non estendere il test in modo più ampio, osservando: “Il numero di like è estremamente basso nella lunga lista di problemi che dobbiamo risolvere”.

L’anno scorso, i ricercatori dell’azienda hanno valutato anche il pulsante di condivisione. In uno studio del settembre 2020, un ricercatore ha scritto che il pulsante e le cosiddette unità di aggregazione di ricondivisione nel News Feed, che sono gruppi di post generati automaticamente che sono già stati condivisi dagli amici delle persone, sono stati “progettati per attirare l’attenzione e incoraggiare il coinvolgimento. “

Ma non controllate, le funzionalità potrebbero “servire ad amplificare contenuti e fonti errati”, come post di bullismo e nudità borderline, ha affermato il ricercatore.

Questo perché le funzionalità hanno reso le persone meno riluttanti a condividere post, video e messaggi tra loro. In effetti, gli utenti avevano tre volte più probabilità di condividere qualsiasi tipo di contenuto dalle unità di aggregazione di ricondivisione, ha affermato il ricercatore.

Un post che si è diffuso ampiamente in questo modo è stato un messaggio non datato da un account chiamato “The Angry Patriot”. Il post informava gli utenti che le persone che protestavano contro la brutalità della polizia stavano “prendendo di mira una stazione di polizia” a Portland, Oregon. Dopo essere stato condiviso tramite unità di aggregazione di ricondivisione, centinaia di commenti pieni di odio si sono riversati. Era un esempio di “esca d’odio”, il ha detto il ricercatore.

Un filo conduttore nei documenti era il modo in cui i dipendenti di Facebook sostenevano i cambiamenti nel modo in cui funzionava il social network e spesso accusavano i dirigenti di intralciare la strada.

In un post interno dell’agosto 2020, un ricercatore di Facebook ha criticato il sistema di raccomandazione che suggerisce pagine e gruppi da seguire e ha affermato che può “condurre molto rapidamente gli utenti verso teorie e gruppi di cospirazione”.

“Per paura di potenziali risposte delle parti interessate pubbliche e politiche, esponiamo consapevolmente gli utenti a rischi di danni all’integrità”, ha scritto il ricercatore. “Durante il tempo in cui abbiamo esitato, ho visto gente della mia città natale andare sempre più nella tana del coniglio” di movimenti di teoria della cospirazione come QAnon e cospirazioni anti-vaccinazione e Covid-19.

Il ricercatore ha aggiunto: “È stato doloroso osservare”.

La segnalazione è stata fornita da Davey Alba, Sheera Frenkel, Cecilia Kang e Ryan Mac.

https://www.nytimes.com/