Du côté des médias sociaux

Jusqu’où les agences d’e-réputation sont-elles prêtes à aller ? L’expérience montre que certaine n’agissent pas toujours en toute transparence, voire interviennent systématiquement de façon dissimulée. François Jeanne-Beylot, spécialiste de l’intelligence économique, invite ces agences à opter pour de bonnes pratiques de transparence afin de ne pas salir la réputation de la profession.

Les usages de Twitter sont nombreux et variés : du journaliste pour lequel c’est un moyen de « faire de l’information » à l’adolescent qui prolonge les discussions de la cour de récré, la plateforme permet des usages différents. Dans cet esprit, le blogueur scientifique Arthur Charpentier a effectué une sorte de rétrospective de 4 ans d’utilisation de Twitter par un universitaire, intéressante à la fois pour ses confrères et pour tout internaute curieux de mieux connaître Twitter.

Enfin, Facebook a annoncé un certain nombre de modifications de sa plateforme, et en particulier de l’algorithme qui sélectionne les publications apparaissant dans le flux d’actualité. En fonction du type de contenus, les utilisateurs devraient voir plus ou moins de publications de pages Facebook, avec plutôt une baisse de leur visibilité. L’annonce n’a évidemment pas ravi les community managers qui communiquent encore sur Facebook.

Sur le grand réseau mondial

En ce qui concerne Internet, le chroniqueur Xavier de la Porte est frappé de voir que nous en parlons beaucoup avec des métaphores aqueuses ou maritimes : le flux, le débit, la navigation, et bien d’autres termes, sont empruntés à des univers liquides, qui seraient une façon de décrire la fluidité (réelle ou supposée) d’Internet, ou encore de naturaliser le phénomène en en faisant quelque chose d’aussi naturel à nos yeux que l’océan.

Sur un plan beaucoup plus concret, il semblerait que le déploiement par Google du Knowledge Graph ait un impact sur l’audience de Wikipédia : on suppose du coup que le fait d’afficher dans les pages de résultat des informations de type encyclopédique suffit aux internautes qui n’en demandent pas davantage, et se rendent donc moins sur Wikipédia.

Au royaume de la data

2014 pourrait être l’année du grand retour de l’intelligence artificielle : c’est en tout cas l’impression que donnent les rachats et réorganisations des géants du web autour de ces sujets. Google, qui avait déjà accueilli Ray Kurzweil, le « pape fou » de l’intelligence artificielle, a fait l’acquisition d’une nouvelle société dans le domaine, la startup DeepMind.

On sent en tout cas que l’une des branches de l’intelligence artificielle, à savoir l’analyse sémantique, décolle chez les principaux acteurs d’Internet. Ainsi, le traitement automatique du langage est au coeur des trending topics récemment mis en place par Facebook, qui avait déjà déployé des efforts importants lors de la mise en place de Graph Search.

controverse
Cliquer sur l’image.

Notre visualisation de la semaine est choisie parmi la sélection réalisée par le magazine en ligne Quartz sur l’année 2013, et qui regorge de trésor. Ici, il s’agit en l’occurrence des articles les plus controversés sur Wikipédia, par sujet et par langue.