La sensation de partage de vidéos TikTok est poursuivie en justice en Californie après la mort d’enfants alors qu’ils participaient à un « Blackout Challenge » qui consiste à s’étouffer jusqu’à s’évanouir.
Le procès déposé devant un tribunal d’État de Los Angeles la semaine dernière accuse le logiciel TikTok d’avoir « intentionnellement et à plusieurs reprises » poussé le Blackout Challenge qui a entraîné la mort d’une fillette de huit ans au Texas et d’une fillette de neuf ans dans le Wisconsin dernier an.
« TikTok doit être tenu responsable d’avoir poussé du contenu mortel à ces deux jeunes filles », a déclaré Matthew Bergman, avocat au Social Media Victims Law Center, qui a déposé la plainte.
« TikTok a investi des milliards de dollars pour concevoir intentionnellement des produits qui diffusent des contenus dangereux dont il sait qu’ils sont dangereux et peuvent entraîner la mort de ses utilisateurs. »
TikTok, propriété de la société chinoise ByteDance, n’a pas immédiatement répondu à une demande de commentaire.
La poursuite allègue que l’algorithme de TikTok a promu le Blackout Challenge à chacune des filles, qui sont mortes d’auto-étranglement – l’une utilisant une corde et l’autre une laisse de chien.
Il a également répertorié des enfants en Italie, en Australie et ailleurs dont les décès ont été liés au TikTok Blackout Challenge.
TikTok a présenté et promu une série de défis dans lesquels les utilisateurs se filment en train de participer à des actes thématiques parfois dangereux.
Parmi la litanie des défis TikTok décrits dans les documents judiciaires figurait le « Skull Breaker Challenge » dans lequel les gens se font botter les jambes en sautant pour se retourner et se cogner la tête.
Le « Coronavirus Challenge » consiste à lécher des objets et des surfaces aléatoires en public pendant la pandémie, et le « Fire Challenge » consiste à arroser des objets avec un liquide inflammable et à les incendier, selon des documents judiciaires.
La poursuite demande à un juge d’ordonner à TikTok d’arrêter d’accrocher les enfants via son algorithme et de promouvoir des défis dangereux, et de payer des dommages-intérêts en espèces non spécifiés.