Pourquoi le plan de YouTube pour éduquer les théoriciens du complot avec Wikipédia est faible, paresseux et ne fonctionnera tout simplement pas

Commençons par le positif : YouTube a reconnu qu’il avait un problème, et cela est largement considéré comme la première étape sur la voie de la guérison. Ce problème particulier est que ses vidéos les plus performantes sont souvent des ordures remplies de théories du complot qui polluent l’esprit de jeunes téléspectateurs impressionnables qui grandissent avec l’impression que toutes les réponses peuvent être trouvées en ligne.

Pourquoi le plan de YouTube pour éduquer les théoriciens du complot avec Wikipédia est faible, paresseux et ne fonctionnera tout simplement pas

C’est donc un bon début. Une fois que vous avez reconnu que vous avez un problème, la prochaine étape consiste à demander de l’aide, n’est-ce pas ? Mais vers qui une entreprise de 75 milliards de dollars comme YouTube se tourne-t-elle pour obtenir de l’aide ? Si votre réponse était à sa société mère encore plus riche Google, alors vous êtes sur le point d’être profondément déçu. Au lieu de cela, YouTube s’est tourné vers Wikipédia à but non lucratif – oui, le même Wikipédia que l’on retrouve souvent en train de mendier des dons.

Le développement a été annoncé par la PDG de YouTube, Susan Wojcicki, à SXSW cette semaine et impliquera des “indices d’information” apparaissant aux côtés de vidéos au contenu douteux, avec un lien vers Wikipedia afin que les observateurs vidéo puissent en savoir plus. Par exemple, une vidéo expliquant que l’alunissage était un canular aurait un lien vers l’article de Wikipédia expliquant en détail comment cela a été accompli et pourquoi il aurait été très difficile de simuler.youtube-informations-indices

C’est, au mieux, une solution très faible. C’est pourquoi.

1. Les consommateurs de vidéos ne sont pas nécessairement de gros lecteurs

Si vous êtes sur YouTube, vous voulez regarder la vidéo. Et si vous voulez lire du texte, la section des commentaires vous dissuadera assez rapidement de cette impulsion.

Ce que je dis, c’est que même si ce serait une grossière simplification de dire que les observateurs de YouTube ne sont pas de grands lecteurs, en moyenne, il est peu probable que ce soit leur média choisi. Alors, comment un article Wikipédia dense de 20 000 pages peut-il rivaliser avec une vidéo de cinq minutes accrocheuse et intelligemment produite ?

Spoiler : ça ne peut pas.

2. YouTube peut se permettre ses propres solutions

YouTube est, comme je l’ai mentionné ci-dessus, évalué à 75 milliards de dollars. Alphabet, qui possède sa société mère Google, est l’entreprise la plus précieuse au monde. Wikipédia, bien qu’à peine pauvre, est toujours une organisation à but non lucratif gérée par des bénévoles.

Pour YouTube, simplement transférer la responsabilité d’éduquer ses utilisateurs sur un site Web financièrement plus pauvre est à la fois paresseux et irresponsable. Il peut et doit faire mieux.

3. Wikipédia n’est pas configuré pour gérer un afflux de conspirationnistesyoutubes_plan_to_educate_conspiracy_theorists_is_a_plaster_on_a_shotgun_wound_2

Bien que Wikipédia ait une réputation durement gagnée de vérité objective, il reste une ressource que tout le monde peut modifier – et cela signifie que beaucoup de choses se glissent sur le net.

Mais ce n’est même pas le pire problème ici : si vous dirigez un groupe de théoriciens du complot vers un site Web en leur disant qu’ils sont fous, est-ce que leur réaction est de changer d’avis ou de se battre ? Wikipédia pourrait peut-être résister à certains actes de vandalisme sur ses articles, mais un site de la taille de YouTube qui envoie ses membres les plus paranoïaques est tout autre chose.

Je dois ajouter à ce stade que la première fois que Wikipédia a entendu parler du plan de YouTube, c’était lorsqu’il a été annoncé à SXSW. “Nni Wikipédia ni la Wikimedia Foundation ne font partie d’un partenariat formel avec YouTube », a révélé la société dans un communiqué à Gizmodo. “Nous n’avons pas été prévenus à l’avance de cette annonce.”

4. Cela ne s’attaque pas à la racine du problème

Essayer d’éloigner les gens des vidéos de théorie du complot sur YouTube est une noble ambition, mais une question plus pertinente consiste à se demander comment ils y arrivent en premier lieu. Sur ce point, les mains de YouTube sont loin d’être propres.

Ce n’est pas seulement le contenu promu par YouTube. Le système est conçu pour pousser les téléspectateurs vers des contenus de plus en plus extrêmes, comme l’explique ce reportage du New York Times. “Il semble que vous n’êtes jamais assez ‘noyau dur’ pour l’algorithme de recommandation de YouTube. Il promeut, recommande et diffuse des vidéos d’une manière qui semble constamment augmenter les enjeux », écrit l’auteur de l’article, Zeynep Tufekci, qui a expérimenté un tas de nouveaux comptes pour voir ce que YouTube recommanderait. « Des vidéos sur le végétarisme ont conduit à des vidéos sur le véganisme. Des vidéos sur le jogging ont conduit à des vidéos sur la course à pied d’ultramarathons. »

Oui, il s’agit d’un problème algorithmique plutôt que de conception, mais alors que les gens sont dirigés vers les marges, YouTube est encore bien plus du côté du problème que de la solution.

5. Cela ne peut pas s’attaquer à tous les éléments de propagande sur YouTube

Mais même en supposant que cette solution était bonne, comment cela fonctionnerait-il au-delà des exemples évidents ? Il est facile de repérer les théories du complot sur l’alunissage, mais qu’en est-il des légendes urbaines modernes, et celles qui ont commencé sur YouTube sans démystification plus large ? À quel article de Wikipédia ces liens seraient-ils liés ? Qu’en est-il des vidéos qui diffusent nonchalamment de fausses nouvelles, mais ne mentionnent pas que le sujet sera traité dans la description ? Comment YouTube le saurait-il ?

Devinez quoi : la plupart des théoriciens du complot n’écrivent pas « théorie du complot » dans le titre de leurs vidéos parce qu’ils pensent qu’ils partagent la vérité. Bonne chance pour attraper chaque exemple de “vérité”, alors que 65 ans de vidéo sont téléchargés chaque jour.

6. Les théoriciens du complot ne font pas confiance à Google pour dire la vérité

Une chose qui tend à unir les théoriciens du complot est leur méfiance à l’égard des grandes entreprises. Pourquoi exactement quelqu’un susceptible d’être paranoïaque ferait-il confiance à YouTube pour juger équitablement de ce qui est vrai et de ce qui ne l’est pas ?

Faible, faible, faibleyoutubes_plan_to_educate_conspiracy_theorists_is_a_plaster_on_a_shotgun_wound_1

Bref, au fur et à mesure des solutions c’est mieux que rien, mais juste. Une entreprise des ressources de YouTube peut et doit faire mieux – et pas seulement sur l’adoption de vues marginales non plus.

Il doit sévir contre un modèle commercial qui récompense les dangereux demandeurs d’attention avec d’énormes sommes d’argent. Il doit trouver une solution à la diffusion de contenu extrémiste qui soit deux fois moins efficace que ses propres blocs pornographiques. Il doit réellement accepter ses responsabilités et contrôler efficacement son propre contenu, pas seulement bricoler dans les marges.

Jusqu’à présent, seul le risque de perdre des dollars publicitaires a incité à agir, et bien que les gouvernements parlent dur sur la plate-forme, la vérité est qu’ils sont trop faibles et désorganisés pour faire grand-chose à ce sujet. C’est profondément regrettable, car si saupoudrer quelques liens Wikipédia sur une vidéo est le mieux que nous puissions espérer, l’entreprise ne prendra certainement pas l’initiative de se réglementer.

Enregistrer un commentaire

Plus récente Plus ancienne