L’autocomplétion de Google est aussi accusée d’aider la désinformation

Les suggestions de recherches de Google auraient aussi dirigé les internautes vers des canulars.

La désinformation sur la toile est devenue un sujet très évoqué depuis la victoire de Donald Trump à l’élection présidentielle aux USA. Nombreux sont ceux qui estiment que si Trump est aujourd’hui le président élu, c’est en majeure partie à cause des fake news qui se répandent facilement les réseaux sociaux. Et comme il est le numéro un, Facebook a particulièrement été accusé de ne pas avoir suffisamment limité cette propagation de la désinformation.

Mais maintenant, Google est aussi suspecté d’aider les fake news à se répandre, par le biais de sa fonctionnalité autocomplétion. Lorsque vous saisissez un mot ou une expression sur le champ de recherche de Google, l’autocomplétion essaie de deviner la suite de votre requête en complétant avec des recherches que les autres internautes ont faites.

Hier soir, le site Business Insider a évoqué dans un article le fait que quand les fake news dépassent les vraies infos en termes de popularité, l’algorithme de l’autocomplétion de Google se met parfois aussi à générer des suggestions de recherche qui redirigent les internautes vers des contenus de désinformation devenus viraux.

Ainsi, dans l’un des exemples, lorsque le journaliste a saisi « Michelle Obama est », la seconde et la troisième suggestion de recherche concernaient des « preuves » que l’ancienne première dame est en réalité un homme. Selon Business Insider, ces deux suggestions sont basées sur une vidéo YouTube qui dit présenter « des preuves irréfutables et scientifiques […] que Michelle Obama est en réalité un homme […] ». La vidéo a déjà dépassé le million et demi de vues.

michelle-obama-un-homme

Source : Business Insider

Interrogé par Business Insider, Google a indiqué que ces prédictions « sont générées par un algorithme qui se base sur les activités de recherche et sur les intérêts des utilisateurs. Les utilisateurs recherchent une grande variété de contenu et 15 % des requêtes que nous voyons chaque jour sont nouvelles, explique le porte-parole de la firme de Mountain View. En raison de cela, les termes qui apparaissent sur l’autocomplétion peuvent être inattendus ou désagréables. Nous faisons de notre mieux pour éliminer les termes offensants comme porno ainsi que les propos haineux, mais nous admettons que cette autocomplétion n’est pas une science exacte et nous travaillons toujours pour améliorer notre algorithme ». Sinon, le porte-parole a également tenu à indiquer que ces résultats reflètent le contenu du web et en aucun cas les opinions politiques de Google.

(Source)


Nos dernières vidéos

Send this to a friend

Lire les articles précédents :
Cette application Google pourrait un jour vous sauver la vie

Cette nouvelle application permet à vos proches de vous localiser en cas de problèmes.

Fermer