Métiers de la data et création de valeur

Par défaut

On entend de plus en plus en plus parler des data par les caractéristiques et les usages qui en sont fait : open data, big data, smart data, etc. Autant de qualificatif pour illustrer la nouvelle ère qui s’offre aux entreprises : l’analyse des données pour créer de la valeur. 

La nécessité pour les entreprises, d’acquérir de nouvelles compétences….

creation_valeurLe nombre de données explose, les technologies d’aide à ces analyses de données évoluent et ouvrent un nouveau champ des possibles. Les compétences pour aborder ces technologies d’analyses sont nouvelles et pointues. Si le métier de data scientist commence à être plus connu et que des formations ouvrent sur ces compétences, il est essentiel de bien identifier les spécialités des data scientists dont les entreprises ont besoin. Comme le disait un intervenant lors d’une table ronde sur les bigdata, l’intégration de ces compétences doit être pensé de façon stratégique, rattaché à une direction proposant une vision globale de l’utilisation des données de l’entreprise (marketing, DSI, stratégie, relation clients,etc.). Dans le même esprit, Matthew Reaney sur le blog Dataconomy propose quatre catégories de datascientists : « Data Business People (DB), Data Creatives (DC), Data Developers (DD), Data Researchers (DR) ». Cette typologie est intéressante car elle démontre les vastes compétences et les différents profils de professionnels qui doivent être conjugués en entreprise pour relever les multiples défis de l’analyse de données. De nouveaux métiers donc, avec les défis RH qui y sont associés.

 

Mais avec un objectif inchangé : l’analyse des données pour créer de la valeur

valeur_infoL’objectif de l’intégration de ces compétences est bien la création de valeur. Lorsqu’on s’engage dans une démarche d’analyse des données, c’est pour en retirer des informations exploitables pour l’entreprise. Des informations qui deviennent dès lors qu’on se les approprie, des connaissances (sur ses clients, ses consommateurs, ses pratiques internes, etc.). Voir à ce propos mon article du Cercle Les Echos. Qu’elles soient des données de géolocalisation, issues de la presse, de la pratique des réseaux sociaux, les données constituent une matière brute, à travailler pour en tirer de l’intérêt et conduire une stratégie adaptée. Les technologies sont différentes mais les objectifs restent les mêmes. Dans ce cas, peut-on considérer que les métiers de l’information d’hier sont ceux de la data aujourd’hui ? L’avenir nous le dira. Quoiqu’il en soit, avec un marché jeune, construisant petit à petit son écosystème avec ses structures et ses spécificités, avec une intégration volontaire de spécialistes de la data au sein même des entreprises, l’analyse des données et la création de valeur ont de beaux jours devant elles.

 

 

Publicités

Retour sur l’#influenceDay

Par défaut

Comme dit dans mon précédent billet, l’InfluenceDay organisé par Veille Mag était riche en rencontres passionnantes et en échanges enrichissants. Si mon précédent billet était orienté influence, il me semble opportun de mentionner les interventions de qualité concernant la veille et l’opinion en ligne. 3 interventions ont retenu mon attention, notamment par le fait qu’elles illustrent l’importance de la veille au sein d’une stratégie d’influence et de communication.

emmanuelbloch_commdecriseTout d’abord, l’intervention d’Emmanuel Bloch, directeur de l’information stratégique chez Thales, sur les attaques réputationnelles. Auteur du livre Communication de crise et médias sociaux, il a livré une méthode pour définir les éléments de l’anticipation et la gestion des crises. Qui est attaqué ? par qui ? Quels sont les objectifs de l’attaque ? Quels sont les risques ? Autant d’éléments de réflexion avant de se lancer dans la réaction à la crise et la communication. J’ai particulièrement apprécié son discours sur les « leaks » d’une entreprise, à savoir les prises de paroles de salariés en ligne. Ces salariés qui, inconsciemment la plupart du temps, en s’exprimant sur les réseaux sociaux, peuvent révéler des éléments de la stratégie de l’entreprise et ainsi livrer des éléments forts aux concurrents, dévoiler des usages au sein même de l’entreprise, ou encore révéler des informations confidentielles. L’influence de la source de la crise, ou sa capacité à alerter sur un sujet, sont des éléments déterminants pour une propagation sur les réseaux sociaux. Une conclusion de choix pour E. Bloch : l’important, sur les réseaux sociaux, c’est de veiller et d’analyser. 

 

Ensuitesystran, l’atelier par Systran sur la veille multilingue. Le multilinguisme est un des enjeux fort pour les outils de veille aujourd’hui. Mondialisation oblige, les problématiques sont internationales, l’influence comme l’opinion sont des enjeux qui doivent être gérés par l’entreprise comme des données à s’approprier. Si l’anglais est une langue indispensable de nos jours, ces sont bien le chinois et l’indien qui deviendront demain les langues à maîtriser. Grace à la traduction automatique et aux progrès de la technologie, la compréhension d’un environnement global devient plus facile. Même si des doutes persistent quant à la capacité de traduction des outils en autonomie, ils sont une aide précieuse pour les veilleurs et traducteurs, ainsi que pour les salariés d’une entreprise qui dorénavant peuvent recevoir des newsletters multilingues. La traduction vocale en temps réel est même quasiment à notre portée ! Mon avis : une belle techno.

 

digimind_maires_de_france1Enfin, le baromètre mené par Digimind sur les maires influents en France a été présenté par Christophe Asselin. Lors de la présentation, j’ai surtout apprécié l’analyse qui a accompagné les résultats. En effet, au delà des données quantitatives liées aux comptes Twitter, aux pages Facebook ou encore au nombre de billets de blogs, l’étude porte un regard qualitatif sur l’activité des maires (cf. mon billet sur l’influence) Ainsi, des analyses qualitatives et sémantiques ont été ajoutées aux analyses quantitatives pour en déduire des « profils types », comme l' »adepte convaincue pour Anne Hidalgo », « le sage » pour Alain Juppé ou encore « le polémiste » pour Estrosi. L’idée de « profil type » est assez séduisante car il est clair que les comportements en ligne sont clés de la façon dont se construit l’influence. Autrement dit, les influences ne sont pas les mêmes, selon le positionnement éditorial (les sujets de discussion), leur capacité à intéresser les internautes (sujets municipaux VS nationaux), ou celle à susciter des débats.

Sur l’ (e) influence

Par défaut

influenceday2

La semaine dernière a eu lieu l’influence Day, rendez-vous annuel organisé par Veille Mag sur l’influence.
La journée était composée de plusieurs conférences et tables rondes sur l’influence, abordant les sujets de l’opinion, l’identité, la veille, les territoires, les relations publiques et institutionnelles. Les intervenants étaient de qualité et les débats très enrichissants. Je n’ai pas pu aller à toutes les tables rondes mais j’ai sélectionné celles qui avaient le plus de rapport avec la veille et l’information  numérique globalement.

Deux réflexions sur le sujet.

La fin du débat sur la mesure de l’e-influence ? 

La veille et l’influence en ligne ont toujours été intimement liées, la veille permettant de détecter les influenceurs en ligne, grâce à des données quantitatives et l’usage voulait qu’on oubliait trop souvent les éléments qualitatifs. Mais le débat qui faisait rage il y a quelques années sur les paramètres de détection et de qualification des influenceurs, n’est plus. L’idée qu’un influenceur n’est influent qu’au sein de sa propre communauté a fait son chemin, en tous cas en ligne.

La conférence d’Augure à ce sujet l’a bien démontré, un influenceur se repère à partir de ses centres d’intérêts. La base Augure permet également d’identifier des sujets annexes afin de détecter d’autres influenceurs pertinents sur un sujet. L’ouverture basée sur des éléments qualitatifs est pertinente. Même si les outils permettent de valider par des éléments quantitatifs l’influence d’une personne, l’ensemble des intervenants sur le sujet ont tous pondérés leurs propos par des analyses qualitatives.

Comprendre et nuancer les éléments quantitatifs sont les clés d’une bonne stratégie de détection des influenceurs ! Trouver la bonne personne, avec le bon canal de communication pour lui délivrer le bon message au bon moment – et ce, sans se soucier de métrics, constitue le principal éléments de succès de relations publiques en ligne.

En ligne / hors ligne : relations institutionnelles déconnectées ? 

Je suis également allée à des conférences sur l’influence au sens strict du terme – telle que nous la connaissons dans les domaines des relations publiques et institutionnelles. Mais peu – voire même aucune, mais je ne suis pas allée à toutes – ont évoqué le pendant numérique de la question. Quid des questions sur le numérique et l’influence de la France, la normalisation, les relations institutionnelles ?. Si le numérique peut avoir un impact sur les décisions politiques locales – des citoyens peuvent par exemple interpeller leurs élus via des pétitions, ou les associations via des prises de position en ligne – elles semblent être anecdotiques pour les professionnels du secteur (voir également mon billet sur les réseaux sociaux locaux). Mais il est fort à parier que les interpellations numériques vont se développer, les affaires publiques devront de plus en plus considérer les opinions et relations numériques.

Enfin, ce fut également l’occasion pour moi de live-tweeter la journée et de me trouver dans le top 10 des influenceurs du jour par Augure ! Une mise en abîme sympathique. 

Les Influenceurs d’Influence Day 2014 – source : Augure

Sur la polarisation du débat public

Par défaut

Le Pew Research Institue  a récemment publié une étude étonnante, sur le rôle des réseaux sociaux dans la montée de la polarisation du débat public en ligne. Le sondage qui sert de base à l’étude,  montre que les internautes sont moins enclins à partager leurs opinions sur les réseaux sociaux qu’hors ligne.

Je trouve que cette étude présente des conclusions très intéressantes (lire le billet d’Internet Actu), et je rajouterais que la montée de la polarisation en ligne s’explique également par l’évolution des réseaux sociaux.

Chute de la qualité des espaces de débats en ligne

débat public2

Les réseaux sociaux présentent un espace de débat public indéniable, au sein desquels les idées s’échangent, se confrontent, se partagent. Mais depuis 2005, les pratiques ont bien changées. Les sites participatifs, les blogs, Twitter et Facebook ont changé la donne. De même ; l’accès au plus grand nombre à ces réseaux sociaux a accéléré le sentiment d’un débat de plus en plus « plat » et infertile. En effet, sur les réseaux Twitter et Facebook, l’intensité ou l’influence d’une prise de parole se traduit essentiellement par le nombre de RT ou de likes. Des données quantitatives donc, qui ont un impact mineur dans l’enrichissement argumentaire des débats. En fait, les réseaux sociaux ne sont plus adaptés à la pratique du débat populaire, c’est-à-dire accessible au plus grand nombre, tel que nous le connaissions en 2005-2010.

Quels espaces de débat à disposition des internautes ?

débat public

Selon moi, il n’existe plus d’espaces de débat public adapté pour le plus grand nombre. La professionnalisation des usages du web en ligne a laissé de côté ceux qui avaient une voix intéressante mais qui n’ont pas trouvé de lieu adapté pour les exprimer : un blog nécessite une implication forte, Twitter ne permet pas de débattre au-delà de 140 signes, Facebook contient nos idées au sein de notre propre cercle, Agoravox ou les sites participatifs n’ont plus l’audience qu’ils avaient, les commentaires d’articles n’ont absolument aucune influence ni aucune visibilité.

Aujourd’hui les débats pourraient être grossièrement catégorisés en 2 parties : d’un côté les professionnels et experts d’un domaine, formant une communauté et débattant de temps en temps fortement sur un sujet qui les anime sur des espaces « professionnalisés » (faisant partie d’une stratégie globale d’influence); de l’autre, des internautes inaudibles qui débattent sans cesse, mais avec une variété d’arguments et des expertises trop douteuses pour être prises pour argent comptant.

En fait, les prises de position sont plus partagées et plus audibles aujourd’hui mais l’échange des arguments est fortement affaibli.

A lire également: article de l’AtelierLa revue du Digitalle billet de Big BrowserMedias sociaux, et de la revue du digital.

Source Image1 et 2

About monitoring online reputation software and decoding human languages

Par défaut

decoding_human_languagesTwo recent and really interesting articles deal with understanding online opinions :
Sentiment analysis: Understanding customers who don’t mean what they say, from Tech Republic
A computational model to measure how good (or bad) your puns really are, from Discover.

These articles highlight the importance of understanding online opinions.
In the past decade, online reputation has been one of the new concerns for companies. Indeed, it is a well-known fact that nowadays people use internet whether it be for shopping, reading the news, or using it for one’s profession.

As a result, the reputation that the companies have on line has become an important part of the communication strategy.
So they have to invest in order to monitor their reputation, otherwise they could face a bad buzz. To monitor e-reputations, specialized software seems to be the ideal solution, however to my mind it is not sufficient.

Even though software enables one to get online opinion, most software doesn’t analyze the writers’ profiles, explain what motivates them to express or determine if what they say is true.
In spite of technology research, human language remains hard to decrypt and the risk is to misread opinions.

However, there is software that exists which can be helpful to analyze opinion; either producing text analysis or producing quantitative indicators. Indeed, a large amount of e-reputation software makes online opinions easier to understand.

As all companies are concerned by online reputation, the software market is prosperous and will continue to be so. Thus, the professionals who decrypt online opinion play an important role, unless one day research succeeds in doing it.

Real time data for the public transport industry

Par défaut

There is no denying that real time information is part of the internet revolution, and it seems to me that the transport industry illustrates it in a good way.

Embed from Getty Images

First and foremost, transport is a daily preoccupation for most people, whether they live in a town, or in the suburbs, or even in the country. Indeed, most people need a means of transport, even if it is just to go shopping or to go somewhere to do a sport.

Secondly, public transport should take into consideration the customers’ feelings : in my opinion, most people base their choice on comfort, price, speed and punctuality. . Information that can one get on one’s smartphone helps people make the right choice. It is also useful for people who are running late because they can make up their lost time.

This is the reason why public transport companies such as RATP, SNCF or STIF have developed mobile applications.

Most people who lives in a big town have the choice of bus, underground, or trains, and mobile applications are extremely useful because the passengers would know about roadworks or delays.

But it should be borne in mind that some people cycle, walk or drive a car when they want to go somewhere, so they don’t always use public transport.

Although these people have applications on their telephones, in my opinion, these applications should be included in the public transport ones. Offering real services.

Embed from Getty Images

Objectif Smart Data

Par défaut

smart_data_ecole42 « Smart, big, open: peu importe le qualificatif, si la donnée n’est pas utile, elle n’a pas de valeurs », c’est ainsi qu’Henri Verdier, directeur d’Etalab, a conclu la conférence Débat la semaine dernière, consacrée à la Data dans le cadre du Data Day organisé par FrenchWeb.

 

Entre Big, Small, Fast, Open et les autres qualificatifs des data, il est parfois difficile de savoir dans quelle direction s’orienter pour optiliser ses données.
Si tous les qualificatifs ont leur sens (Big pour signifier l’ampleur, Fast pour illustrer une diffusion ultra rapide, ou Open pour caractériser leur accès libre), ce sont bien les Smart data qui sont le but ultime de tous projets liés à l’analyse des données.

Le qualificatif Smart veut ainsi désigner l’intelligence extraite de l’analyse des données. C’est même l’objectif du traitement des données, et l’essence des professionnels de l’information.
Je dis souvent qu’il ne suffit pas de traiter les données; il faut en plus les contextualiser dans un environnement décisionnel propre, au sein d’une entreprise. Quand le Big, le Fast et l’Open sont des états, le smart est la résultante d’une démarche volontaire d’exploitation de ces données.

Et comme l’a fait remarqué David Bessis, initier une démarche de big, fast et open data c’est avant tout le désir de faire des choses intelligentes avec les données.

A noter également que lors de cette conférence, les intervenants ont largement démystifié le concept de big data : selon eux, peu importe le volume de données, du moment que celles-ci parlent et signifient quelque chose. Ainsi, le fait que certains jeux de données « tiennent sur une clés USB » est un exemple qui est revenu régulièrement. En fait, derrière la mode du big data, il y a surtout l’enjeux de savoir quelles données sont utiles pour servir un objectif stratégique.

La notion de temps réèl – fast data- en revanche est resté un élément clé avec des enjeux bien particuliers : servir son client et lui délivrer la bonne info au bon moment selon un contexte d’achat à déterminer.

Enfin, l’Open data reste un concept privilégié au sein des débats puisqu’elle a cette particularité de dépendre d’une démarche d’ouverture des données de la part des entreprises et des administrations.