Un dirigente senior di Meta si è scusato per aver consentito a un’adolescente britannica che si è tolta la vita di visualizzare post grafici relativi all’autolesionismo e al suicidio su Instagram che avrebbero dovuto essere rimossi, ma ha difeso altri contenuti controversi come “sicuri” per i bambini.

Molly Russell di Harrow, Londra, è morta nel novembre 2017 dopo aver visualizzato un grande volume di post su siti come Instagram e Pinterest di proprietà di Meta relativi ad ansia, depressione, suicidio e autolesionismo.

Il responsabile della salute e del benessere di Meta, Elizabeth Lagone, ha detto lunedì all’inchiesta sulla morte di Russell presso il tribunale del coroner di North London che l’adolescente aveva “visto alcuni contenuti che violavano le nostre politiche e ce ne rammarichiamo”.

Quando le è stato chiesto se fosse dispiaciuta, ha aggiunto: “Siamo spiacenti che Molly abbia visto contenuti che hanno violato le nostre politiche e non lo vogliamo sulla piattaforma”.

L’inchiesta segna una resa dei conti per le piattaforme di social media, che sono ampiamente utilizzate dai giovani e i cui modelli di business storicamente hanno dato priorità alla crescita rapida, al coinvolgimento e al tempo dedicato alla visualizzazione dei contenuti.

Dalla morte di Russell, c’è stata una crescente consapevolezza di come gli algoritmi possono essere progettati per diffondere contenuti che incoraggiano gli utenti a interagire con essi, il che a volte ha portato i bambini a essere esposti a materiale dannoso.

L’inchiesta ha appreso che negli ultimi sei mesi della sua vita, Russell si è impegnata in circa 2.100 post relativi a suicidio, autolesionismo o depressione.

Lagone ha affermato che alcuni post con cui Russell aveva interagito da allora sono stati rimossi perché violavano le politiche che sono state inasprite nel 2019 per vietare l’autolesionismo grafico e i contenuti suicidi. Un video che Lagone ha ammesso non era “adatto a nessuno da guardare”.

Tuttavia ha difeso alcuni contenuti autolesionistici che Russell aveva considerato “sicuri” per i bambini.

Quando l’avvocato della famiglia Russell, Oliver Sanders KC, le è stato chiesto se il materiale sull’autolesionismo e sulla depressione che Russell ha visto fosse sicuro per i bambini, ha detto: “Con rispetto, non lo trovo una domanda binaria”, aggiungendo che “alcune persone potrebbero trovare conforto” sapendo che non erano soli.

Il coroner senior Andrew Walker è intervenuto per chiedere: “Quindi stai dicendo di sì, è sicuro. . . ?” al che Lagone ha risposto: “Sì, è sicuro”.

Lagone è stata coinvolta in una serie di incarichi con cui Russell si è impegnata nei mesi prima della sua morte. Li ha descritti come “generalmente ammissibili”, nel senso che coinvolgevano le persone che raccontavano le loro esperienze e potenzialmente gridavano aiuto.

Al momento della morte di Russell, Instagram consentiva post grafici che potevano consentire alle persone di cercare aiuto e supporto, ma non quelli che incoraggiavano o promuovevano il suicidio e l’autolesionismo.

Lagone ha affermato che Instagram ha “sentito in modo schiacciante da esperti” che la società “non dovrebbe cercare di rimuovere [certain content linked to depression and self-harm] a causa dell’ulteriore stigma e vergogna che può causare alle persone che stanno lottando”, ha detto. Ha anche detto che il contenuto era “sfumato” e “complicato”.

In uno scambio, Sanders ha detto: “Perché diavolo stai facendo questo? . . . hai creato una piattaforma che consente alle persone di inserire contenuti potenzialmente dannosi su di essa [and] stai invitando i bambini sulla piattaforma. Non sai dove si trova l’equilibrio del rischio”.

Il padre di Russell, Ian Russell, ha detto all’inchiesta la scorsa settimana che credeva che gli algoritmi dei social media avessero spinto sua figlia verso post espliciti e inquietanti e contribuito alla sua morte.

L’anno scorso, un informatore ha fatto trapelare una ricerca interna su Instagram che ha suggerito che l’app potrebbe avere un impatto negativo sulla salute mentale degli adolescenti, qualcosa che secondo la società era travisato. Ciò ha innescato una discussione diffusa tra legislatori e genitori sugli effetti dei social media sulle giovani menti.

Poche settimane dopo, Instagram ha sospeso i suoi piani per lanciare Instagram Kids, un’app per i minori di 13 anni.