TripAdvisor a publié pour la première fois en septembre un rapport officiel pour faire toute la lumière sur le fonctionnement interne de la plateforme. Ce rapport présente également des chiffres-clés, nous les avons synthétisés dans un autre article : les chiffres clés 2019 de TripAdvisor.
Il nous informe d’une première chose importante (même si on s’en doutait) : 100% des avis envoyés sont examinés par un système automatisé dans le but de détecter les avis non conformes aux critères de publication.
C’est une première modération qui permet d’empêcher la publication des avis frauduleux les plus facilement détectables. Ainsi, en 2018, TripAdvisor aurait bloqué la publication de 73% des 1 386 000 avis frauduleux (1 011 780 avis). On rappelle tout de même que 66 millions d’avis ont été envoyés à la plateforme en 2018. Parmi ces avis frauduleux, une partie ne peut pas être traitée informatiquement et est redirigée vers une modération humaine.
Mais la question qui nous reste à l’esprit est la suivante : qu’advient-il des avis qui passent entre les mailles de ce filet ?
Avant de voir plus précisément le processus de modération de TripAdvisor, nous allons revenir sur la définition d’un faux avis. Nous terminerons ce décryptage en mettant en évidence les failles du système. read more