Un alto dirigente di Meta ha detto a un’inchiesta britannica che la società aveva consentito immagini “grafiche” di autolesionismo sul suo sito Instagram nel momento in cui un adolescente si è suicidato perché voleva consentire agli utenti di “chiedere aiuto”.

Molly Russell di Harrow, Londra, è morta nel novembre 2017 dopo aver visualizzato un grande volume di post su siti come Instagram di proprietà di Meta e Pinterest, relativi ad ansia, depressione, suicidio e autolesionismo.

Il capo della politica per la salute e il benessere di Meta, Elizabeth Lagone, ha detto venerdì alla corte del coroner del nord di Londra che le immagini grafiche che Instagram ha consentito agli utenti di condividere al momento della morte di Russell, avrebbero potuto essere “grida di aiuto” e la piattaforma voleva che le persone “cercassero Comunità”.

“Promozione grafica o incoraggiamento [of suicide or self-harm] non è mai stato permesso”, ha detto, ma ha aggiunto che “il silenzio [a poster’s] lotte” potrebbero causare “un danno incredibile”.

Ha detto che i problemi erano “complicati” e che la comprensione degli esperti si era evoluta negli ultimi anni.

Alla corte è stata mostrata una serie di video clip che Russell aveva messo mi piace o salvato su Instagram prima di morire, inclusi primi piani di individui che si tagliavano i polsi con lame di rasoio, che il coroner senior Andrew Walker ha detto che erano “quasi impossibili da guardare”.

Le clip includevano riprese ravvicinate di persone che si autolesionavano, cadevano da edifici e ingoiavano manciate di pillole, spesso accompagnate da musica ad alto volume e messaggi negativi. Non era chiaro se mostrassero eventi reali o fossero presi da film e TV.

Walker ha affermato che il contenuto “sembra rendere affascinante il danno ai giovani” ed è “della natura più angosciante”.

Lagone ha affermato che Instagram ha cambiato la sua politica nel 2019 dopo che gli esperti gli hanno consigliato che le immagini grafiche di autolesionismo potrebbero incoraggiare gli utenti a farsi del male. La società in precedenza aveva rimosso i post che glorificavano, incoraggiavano o promuovevano l’autolesionismo, ma non i post che avrebbero potuto consentire agli utenti di ammettere le loro lotte e sostenersi a vicenda.

Dopo la morte di Russell, gli esperti hanno consigliato all’azienda che “alcune immagini grafiche . . . potrebbe avere il potenziale per promuovere l’autolesionismo”, secondo parte della testimonianza di Lagone letta in tribunale.

Alla domanda se Meta avesse intrapreso una ricerca sull’impatto dei contenuti autolesionistici sugli utenti, Lagone ha detto che non ne era a conoscenza e che sarebbe stato difficile da condurre. “L’impatto di determinati materiali può influenzare le persone in modi diversi in momenti diversi. . . È davvero complicato”, ha detto.

Il padre di Molly Russell, Ian Russell, ha detto all’inchiesta questa settimana che gli algoritmi dei social media avevano spinto sua figlia verso post inquietanti e contribuito alla sua morte. Ha detto alla corte che “i social media hanno aiutato a uccidere mia figlia”.

Instagram aveva consigliato a Molly Russell account che includevano alcuni relativi alla depressione e ai sentimenti suicidi.

Molly Russell era stata anche raccomandata da Pinterest per i contenuti sulla depressione, l’inchiesta ascoltata questa settimana, tra cui “dieci spille sulla depressione che potrebbero piacerti”. Ha continuato a ricevere e-mail da Pinterest dopo la sua morte, inclusa una intitolata “nuove idee per te nella depressione”.

Giovedì un alto dirigente di Pinterest ha ammesso all’inchiesta che il sito non era sicuro al momento della morte di Molly Russell ed era ancora “imperfetto”, nonostante gli aggiornamenti delle sue regole.

Alla domanda dell’avvocato della famiglia Russell, Oliver Sanders KC, se le politiche di Instagram fossero state “inadeguate” quando Molly Russell è morta, Lagone ha detto: “Abbiamo concluso che dovevamo espandere le politiche e l’abbiamo fatto”.

L’udienza arriva quando l’approvazione in parlamento del disegno di legge sulla sicurezza online, che mira a costringere le società Internet a mantenere le loro piattaforme sicure, è stata sospesa. Si dice che Liz Truss, il nuovo primo ministro, stia valutando la possibilità di allentare una clausola controversa tra i lobbisti tecnologici che renderebbe le piattaforme responsabili della rimozione di contenuti “legali ma dannosi”, come il bullismo.