Abonnez-vous au podcast « Choses à Savoir Sciences » pour ne rater aucun nouvel épisode: |
S’abonner | |
S’abonner | |
S’abonner | |
S’abonner | |
S’abonner | |
S’abonner |
.
Youtube regorge de vidéos conspirationnistes ou reprenant sciemment de fausses informations. Un fait maintes fois souligné auquel YouTube semble désormais vouloir s’attaquer car l’accumulation de polémiques pourraient entâcher son image et son attrait commercial. La parade viendrait de Wikipédia.
Lors d’une conférence récente le PDG de YouTube a annoncé vouloir utiliser les informations de l’encyclopédie pour contrer les vidéos complotistes «qui font l’objet de discussions actives sur YouTube». Devraient s’afficher à coté de la vidéo, des informations issues de Wikipédia au sujet de l’événement dont il est question dans la vidéo.
Pourtant d’une part Wikipédia ne semblait pas informé et d’autre part malgré sa communauté active on sait que la diffusion de fausses informations sur cette encylcopédie est possible. Ce qui fait dire à certains que ce serait plutôt à Youtube de modérer ses contenus. Mais cette hypothèse semble inconcevable. Son patron a en effet fait savoir que: «nous ne sommes pas un média, nous n’avons pas à dire si telle information est vraie ou fausse».
Ëtrange quand on sait qu’elle a déjà concédé que si certaines vidéos posaient problème, elles ne seraient pas mises en avant et seraient démonétisées.
Mais pour leur diffusion pas de limite de prévue ! Pourtant un filtre efficace serait plus que nécessaire. Sur YouTube Kids, l’application en ligne destinée aux enfants, on peut trouver, y compris dans les suggestions, en cherchant par exemple « atterrissage sur la Lune », des vidéos soutenant que l’Homme n’y a jamais mis les pieds. Après en avoir regardé plusieurs, certaines apparaissent même comme recommandées en haut de la page d’accueil.
Four Ways to Spot Fake And Substandard Remedies