Il y a un an … freelance. Bilan à main levée.

Par défaut

Il y a juste un an, je signai mon premier contrat en tant qu’indépendante. Une aventure professionnelle formidable, pendant laquelle j’ai pu concrètement mener des projets, de la négociation des contrats, à la livraison des études stratégiques en passant par la définition des besoins, la conception des études, la mise en place des outils, la production de l’analyse.

J’ai énormément appris de cette expérience, car travailler seul, c’est se remettre en question en permanence, s’interroger sur les meilleurs choix pour satisfaire son client. C’est aussi mener à bout de bras des projets, sans cadre prédéfini, sans filet. C’est aussi découvrir d’autres façons de travailler, avec ses clients. Comprendre leur fonctionnement, leurs objectifs même les non-dits. C’est écouter, analyser. Quelque part, je le faisais déjà dans mon ancien boulot, mais être indépendante, c’est faire des choix seul, prendre confiance en soi, définir un but précis pour la mission, dans une relation exclusive et privilégiée.

J’ai eu la chance de travailler avec des agences traditionnelles de RP, de communication digitales et d’instituts d’études, j’ai pu confronter mes propres méthodologies à des problématiques nouvelles. C’est apprendre des fonctionnements différents, s’adapter, faire preuve de souplesse, de compréhension, d’écoute, et établir une relation de confiance.

Etre indépendante, c’est aussi compter sur le bouche-à-oreilles, sur son réseau. C’est prendre le temps de découvrir de nouveaux professionnels, écouter des experts lors de conférences, les interroger, leurs demander d’apprendre d’eux. Se faire connaître, renouveler en permanence ses connaissance, aiguiser sa curiosité. Prendre le temps de participer à des salons, découvrir, faire connaissance, discuter, confronter ses points de vue.

C’est aussi découvrir les joies de l’ACCRE, de l’URSSAFF, du RSI, des différents régimes d’indépendants, de l’obscure administration. C’est déclarer son chiffre d’affaire, payer des charges, comprendre le fonctionnement global d’une entreprise, les codes NAF, les SIRET et SIREN. Chef d’entreprise, c’est consacrer un certain temps de son activité à l’administratif.

Cette année est passé à vitesse grand V. Ce fut un enrichissement permanent, j’ai appris 1000 choses, je remercie les clients qui m’ont fait confiance, les personnes de mon entourage professionnel qui m’ont entourée, encouragée et soutenue !

Aujourd’hui, une nouvelle aventure professionnelle s’ouvre à moi. Ravie, encore, de pouvoir allier information professionnelle, technologie et innovation.Et continuer à apprendre.

L’info pro. Data. Nouvelle donne.

Par défaut

Je publie ici un billet que j’avais écrit il y a quelques mois suite à la participation au Salon Solutions en octobre 2014, mais qui me parait toujours d’actualité.

Nouvelle donne ces derniers temps dans le domaine de l’information professionnelle : la gestion des données ouvertes. Les données ouvertes, c’est ce formidable vivier d’information gratuite et en libre accès et qui, mine de rien, peut participer à l’élaboration de connaissances stratégiques.

L’utilisation des données ouvertes par les entreprises existe depuis plusieurs années, mais ces derniers temps, une nouvelle tendance a vu le jour – avec la mouvance des big data, open data, smart data, etc. La data, c’est le nouvel Or pour les entreprises.

J’avais pu, lors de ce salon, remarquer de nouveaux acteurs sur le marché, qui proposent leur service d’analyse et de capitalisation des informations. Simple mode autour de la data?

D’un coté, on pourrait penser que ces entreprises qui bâtissent leur business modèle autour de la valorisation des informations libres, ne sont que le renouvellement des agences de veille et d’intelligence économique qui fleurissaient il y a quelques années. La démocratisation de l’accès à l’information sonnait, quelque part, la fin d’un modèle d’entreprise basé sur la difficulté de l’accès à l’info.

D’un autre côté, les entreprises semblent être de plus en plus attentives à la valeur ajoutée que peuvent leur fournir l’analyse de ces informations. Car la facilité de l’accès à l’information a complexifié l’identification de l’info utile.

Quoiqu’il en soit, un nouveau marché, autour de l’exploitation des données ouvertes se dessine, l’enjeu de l’accès à l’information a évolué, le marché de l’information professionnelle se renouvelle…. et c’est tant mieux 🙂 !

5 raisons d’appliquer les technos Big data à la veille sur les réseaux sociaux

Par défaut

Aujourd’hui, l’enjeu majeur pour une entreprise n’est plus d’analyser et comprendre l’ensemble des données la concernant de près ou de loin, mais bien de mettre en place des outils pour capter et saisir le déluge des données issues des réseaux sociaux. Les technologies logicielle issues du big data peuvent répondre à ce nouveau challenge : 

      1. Parce que les data issues du web social ne vont cesser de s’accroître. L’utilisation des réseaux sociaux est en constante augmentation : démocratisation continue de l’usage du web, utilisation de nouveaux supports mobiles (mobiles, tablettes) et multiplicité des réseaux sociaux (réseaux sociaux professionnels, microblogging, plateformes de partages de photos et de vidéos, forums de discussions), des nouveaux services, et du temps réel (objets connectés, géolocalisation, commandes en ligne, etc.). .
      2. Parce que les données peuvent provenir de multiples réseaux, appelant des technologies souples, qui peuvent s’adapter rapidement aux nouveaux usages du web et à l’hétérogénéité des réseaux. 
      3. Parce que la compréhension de l’ensemble son environnement web est la clé d’un positionnement en ligne efficace. A l’analyse de ses consommateurs et de leurs pratiques, s’ajoute celle de la concurrence, et des débats liés à son environnement (économique, juridique, etc.). Veiller l’ensemble des acteurs et des débats multiplie les axes d’études.
      4. Parce que la compréhension de l’ensemble de ses clients et publics est primordiale. Les études des usages de ses publics sont essentielles pour répondre au plus près de leurs demandes. Avoir plusieurs publics ciblent exige plusieurs axes d’analyses. 
      5. Enfin, parce que les données issues du web social doivent être recoupées avec les données internes. La capitalisation des données constitue l’une des clés d’une stratégie cohérente et juste. Ainsi, les données du marketing, de la communication, du service client comme du service compta ou autre juridique doivent être recoupées pour tirer profit de l’ensemble des données. 

 

Métiers de la data et création de valeur

Par défaut

On entend de plus en plus en plus parler des data par les caractéristiques et les usages qui en sont fait : open data, big data, smart data, etc. Autant de qualificatif pour illustrer la nouvelle ère qui s’offre aux entreprises : l’analyse des données pour créer de la valeur. 

La nécessité pour les entreprises, d’acquérir de nouvelles compétences….

creation_valeurLe nombre de données explose, les technologies d’aide à ces analyses de données évoluent et ouvrent un nouveau champ des possibles. Les compétences pour aborder ces technologies d’analyses sont nouvelles et pointues. Si le métier de data scientist commence à être plus connu et que des formations ouvrent sur ces compétences, il est essentiel de bien identifier les spécialités des data scientists dont les entreprises ont besoin. Comme le disait un intervenant lors d’une table ronde sur les bigdata, l’intégration de ces compétences doit être pensé de façon stratégique, rattaché à une direction proposant une vision globale de l’utilisation des données de l’entreprise (marketing, DSI, stratégie, relation clients,etc.). Dans le même esprit, Matthew Reaney sur le blog Dataconomy propose quatre catégories de datascientists : « Data Business People (DB), Data Creatives (DC), Data Developers (DD), Data Researchers (DR) ». Cette typologie est intéressante car elle démontre les vastes compétences et les différents profils de professionnels qui doivent être conjugués en entreprise pour relever les multiples défis de l’analyse de données. De nouveaux métiers donc, avec les défis RH qui y sont associés.

 

Mais avec un objectif inchangé : l’analyse des données pour créer de la valeur

valeur_infoL’objectif de l’intégration de ces compétences est bien la création de valeur. Lorsqu’on s’engage dans une démarche d’analyse des données, c’est pour en retirer des informations exploitables pour l’entreprise. Des informations qui deviennent dès lors qu’on se les approprie, des connaissances (sur ses clients, ses consommateurs, ses pratiques internes, etc.). Voir à ce propos mon article du Cercle Les Echos. Qu’elles soient des données de géolocalisation, issues de la presse, de la pratique des réseaux sociaux, les données constituent une matière brute, à travailler pour en tirer de l’intérêt et conduire une stratégie adaptée. Les technologies sont différentes mais les objectifs restent les mêmes. Dans ce cas, peut-on considérer que les métiers de l’information d’hier sont ceux de la data aujourd’hui ? L’avenir nous le dira. Quoiqu’il en soit, avec un marché jeune, construisant petit à petit son écosystème avec ses structures et ses spécificités, avec une intégration volontaire de spécialistes de la data au sein même des entreprises, l’analyse des données et la création de valeur ont de beaux jours devant elles.

 

 

Sur l’ (e) influence

Par défaut

influenceday2

La semaine dernière a eu lieu l’influence Day, rendez-vous annuel organisé par Veille Mag sur l’influence.
La journée était composée de plusieurs conférences et tables rondes sur l’influence, abordant les sujets de l’opinion, l’identité, la veille, les territoires, les relations publiques et institutionnelles. Les intervenants étaient de qualité et les débats très enrichissants. Je n’ai pas pu aller à toutes les tables rondes mais j’ai sélectionné celles qui avaient le plus de rapport avec la veille et l’information  numérique globalement.

Deux réflexions sur le sujet.

La fin du débat sur la mesure de l’e-influence ? 

La veille et l’influence en ligne ont toujours été intimement liées, la veille permettant de détecter les influenceurs en ligne, grâce à des données quantitatives et l’usage voulait qu’on oubliait trop souvent les éléments qualitatifs. Mais le débat qui faisait rage il y a quelques années sur les paramètres de détection et de qualification des influenceurs, n’est plus. L’idée qu’un influenceur n’est influent qu’au sein de sa propre communauté a fait son chemin, en tous cas en ligne.

La conférence d’Augure à ce sujet l’a bien démontré, un influenceur se repère à partir de ses centres d’intérêts. La base Augure permet également d’identifier des sujets annexes afin de détecter d’autres influenceurs pertinents sur un sujet. L’ouverture basée sur des éléments qualitatifs est pertinente. Même si les outils permettent de valider par des éléments quantitatifs l’influence d’une personne, l’ensemble des intervenants sur le sujet ont tous pondérés leurs propos par des analyses qualitatives.

Comprendre et nuancer les éléments quantitatifs sont les clés d’une bonne stratégie de détection des influenceurs ! Trouver la bonne personne, avec le bon canal de communication pour lui délivrer le bon message au bon moment – et ce, sans se soucier de métrics, constitue le principal éléments de succès de relations publiques en ligne.

En ligne / hors ligne : relations institutionnelles déconnectées ? 

Je suis également allée à des conférences sur l’influence au sens strict du terme – telle que nous la connaissons dans les domaines des relations publiques et institutionnelles. Mais peu – voire même aucune, mais je ne suis pas allée à toutes – ont évoqué le pendant numérique de la question. Quid des questions sur le numérique et l’influence de la France, la normalisation, les relations institutionnelles ?. Si le numérique peut avoir un impact sur les décisions politiques locales – des citoyens peuvent par exemple interpeller leurs élus via des pétitions, ou les associations via des prises de position en ligne – elles semblent être anecdotiques pour les professionnels du secteur (voir également mon billet sur les réseaux sociaux locaux). Mais il est fort à parier que les interpellations numériques vont se développer, les affaires publiques devront de plus en plus considérer les opinions et relations numériques.

Enfin, ce fut également l’occasion pour moi de live-tweeter la journée et de me trouver dans le top 10 des influenceurs du jour par Augure ! Une mise en abîme sympathique. 

Les Influenceurs d’Influence Day 2014 – source : Augure

About monitoring online reputation software and decoding human languages

Par défaut

decoding_human_languagesTwo recent and really interesting articles deal with understanding online opinions :
Sentiment analysis: Understanding customers who don’t mean what they say, from Tech Republic
A computational model to measure how good (or bad) your puns really are, from Discover.

These articles highlight the importance of understanding online opinions.
In the past decade, online reputation has been one of the new concerns for companies. Indeed, it is a well-known fact that nowadays people use internet whether it be for shopping, reading the news, or using it for one’s profession.

As a result, the reputation that the companies have on line has become an important part of the communication strategy.
So they have to invest in order to monitor their reputation, otherwise they could face a bad buzz. To monitor e-reputations, specialized software seems to be the ideal solution, however to my mind it is not sufficient.

Even though software enables one to get online opinion, most software doesn’t analyze the writers’ profiles, explain what motivates them to express or determine if what they say is true.
In spite of technology research, human language remains hard to decrypt and the risk is to misread opinions.

However, there is software that exists which can be helpful to analyze opinion; either producing text analysis or producing quantitative indicators. Indeed, a large amount of e-reputation software makes online opinions easier to understand.

As all companies are concerned by online reputation, the software market is prosperous and will continue to be so. Thus, the professionals who decrypt online opinion play an important role, unless one day research succeeds in doing it.

Objectif Smart Data

Par défaut

smart_data_ecole42 « Smart, big, open: peu importe le qualificatif, si la donnée n’est pas utile, elle n’a pas de valeurs », c’est ainsi qu’Henri Verdier, directeur d’Etalab, a conclu la conférence Débat la semaine dernière, consacrée à la Data dans le cadre du Data Day organisé par FrenchWeb.

 

Entre Big, Small, Fast, Open et les autres qualificatifs des data, il est parfois difficile de savoir dans quelle direction s’orienter pour optiliser ses données.
Si tous les qualificatifs ont leur sens (Big pour signifier l’ampleur, Fast pour illustrer une diffusion ultra rapide, ou Open pour caractériser leur accès libre), ce sont bien les Smart data qui sont le but ultime de tous projets liés à l’analyse des données.

Le qualificatif Smart veut ainsi désigner l’intelligence extraite de l’analyse des données. C’est même l’objectif du traitement des données, et l’essence des professionnels de l’information.
Je dis souvent qu’il ne suffit pas de traiter les données; il faut en plus les contextualiser dans un environnement décisionnel propre, au sein d’une entreprise. Quand le Big, le Fast et l’Open sont des états, le smart est la résultante d’une démarche volontaire d’exploitation de ces données.

Et comme l’a fait remarqué David Bessis, initier une démarche de big, fast et open data c’est avant tout le désir de faire des choses intelligentes avec les données.

A noter également que lors de cette conférence, les intervenants ont largement démystifié le concept de big data : selon eux, peu importe le volume de données, du moment que celles-ci parlent et signifient quelque chose. Ainsi, le fait que certains jeux de données « tiennent sur une clés USB » est un exemple qui est revenu régulièrement. En fait, derrière la mode du big data, il y a surtout l’enjeux de savoir quelles données sont utiles pour servir un objectif stratégique.

La notion de temps réèl – fast data- en revanche est resté un élément clé avec des enjeux bien particuliers : servir son client et lui délivrer la bonne info au bon moment selon un contexte d’achat à déterminer.

Enfin, l’Open data reste un concept privilégié au sein des débats puisqu’elle a cette particularité de dépendre d’une démarche d’ouverture des données de la part des entreprises et des administrations.