Il y a un an … freelance. Bilan à main levée.

Par défaut

Il y a juste un an, je signai mon premier contrat en tant qu’indépendante. Une aventure professionnelle formidable, pendant laquelle j’ai pu concrètement mener des projets, de la négociation des contrats, à la livraison des études stratégiques en passant par la définition des besoins, la conception des études, la mise en place des outils, la production de l’analyse.

J’ai énormément appris de cette expérience, car travailler seul, c’est se remettre en question en permanence, s’interroger sur les meilleurs choix pour satisfaire son client. C’est aussi mener à bout de bras des projets, sans cadre prédéfini, sans filet. C’est aussi découvrir d’autres façons de travailler, avec ses clients. Comprendre leur fonctionnement, leurs objectifs même les non-dits. C’est écouter, analyser. Quelque part, je le faisais déjà dans mon ancien boulot, mais être indépendante, c’est faire des choix seul, prendre confiance en soi, définir un but précis pour la mission, dans une relation exclusive et privilégiée.

J’ai eu la chance de travailler avec des agences traditionnelles de RP, de communication digitales et d’instituts d’études, j’ai pu confronter mes propres méthodologies à des problématiques nouvelles. C’est apprendre des fonctionnements différents, s’adapter, faire preuve de souplesse, de compréhension, d’écoute, et établir une relation de confiance.

Etre indépendante, c’est aussi compter sur le bouche-à-oreilles, sur son réseau. C’est prendre le temps de découvrir de nouveaux professionnels, écouter des experts lors de conférences, les interroger, leurs demander d’apprendre d’eux. Se faire connaître, renouveler en permanence ses connaissance, aiguiser sa curiosité. Prendre le temps de participer à des salons, découvrir, faire connaissance, discuter, confronter ses points de vue.

C’est aussi découvrir les joies de l’ACCRE, de l’URSSAFF, du RSI, des différents régimes d’indépendants, de l’obscure administration. C’est déclarer son chiffre d’affaire, payer des charges, comprendre le fonctionnement global d’une entreprise, les codes NAF, les SIRET et SIREN. Chef d’entreprise, c’est consacrer un certain temps de son activité à l’administratif.

Cette année est passé à vitesse grand V. Ce fut un enrichissement permanent, j’ai appris 1000 choses, je remercie les clients qui m’ont fait confiance, les personnes de mon entourage professionnel qui m’ont entourée, encouragée et soutenue !

Aujourd’hui, une nouvelle aventure professionnelle s’ouvre à moi. Ravie, encore, de pouvoir allier information professionnelle, technologie et innovation.Et continuer à apprendre.

Publicités

L’info pro. Data. Nouvelle donne.

Par défaut

Je publie ici un billet que j’avais écrit il y a quelques mois suite à la participation au Salon Solutions en octobre 2014, mais qui me parait toujours d’actualité.

Embed from Getty ImagesNouvelle donne ces derniers temps dans le domaine de l’information professionnelle : la gestion des données ouvertes. Les données ouvertes, c’est ce formidable vivier d’information gratuite et en libre accès et qui, mine de rien, peut participer à l’élaboration de connaissances stratégiques.

L’utilisation des données ouvertes par les entreprises existe depuis plusieurs années, mais ces derniers temps, une nouvelle tendance a vu le jour – avec la mouvance des big data, open data, smart data, etc. La data, c’est le nouvel Or pour les entreprises.

J’avais pu, lors de ce salon, remarquer de nouveaux acteurs sur le marché, qui proposent leur service d’analyse et de capitalisation des informations. Simple mode autour de la data?

D’un coté, on pourrait penser que ces entreprises qui bâtissent leur business modèle autour de la valorisation des informations libres, ne sont que le renouvellement des agences de veille et d’intelligence économique qui fleurissaient il y a quelques années. La démocratisation de l’accès à l’information sonnait, quelque part, la fin d’un modèle d’entreprise basé sur la difficulté de l’accès à l’info.

D’un autre côté, les entreprises semblent être de plus en plus attentives à la valeur ajoutée que peuvent leur fournir l’analyse de ces informations. Car la facilité de l’accès à l’information a complexifié l’identification de l’info utile.

Quoiqu’il en soit, un nouveau marché, autour de l’exploitation des données ouvertes se dessine, l’enjeu de l’accès à l’information a évolué, le marché de l’information professionnelle se renouvelle…. et c’est tant mieux 🙂 !

Retour sur l’#influenceDay

Par défaut

Comme dit dans mon précédent billet, l’InfluenceDay organisé par Veille Mag était riche en rencontres passionnantes et en échanges enrichissants. Si mon précédent billet était orienté influence, il me semble opportun de mentionner les interventions de qualité concernant la veille et l’opinion en ligne. 3 interventions ont retenu mon attention, notamment par le fait qu’elles illustrent l’importance de la veille au sein d’une stratégie d’influence et de communication.

emmanuelbloch_commdecriseTout d’abord, l’intervention d’Emmanuel Bloch, directeur de l’information stratégique chez Thales, sur les attaques réputationnelles. Auteur du livre Communication de crise et médias sociaux, il a livré une méthode pour définir les éléments de l’anticipation et la gestion des crises. Qui est attaqué ? par qui ? Quels sont les objectifs de l’attaque ? Quels sont les risques ? Autant d’éléments de réflexion avant de se lancer dans la réaction à la crise et la communication. J’ai particulièrement apprécié son discours sur les « leaks » d’une entreprise, à savoir les prises de paroles de salariés en ligne. Ces salariés qui, inconsciemment la plupart du temps, en s’exprimant sur les réseaux sociaux, peuvent révéler des éléments de la stratégie de l’entreprise et ainsi livrer des éléments forts aux concurrents, dévoiler des usages au sein même de l’entreprise, ou encore révéler des informations confidentielles. L’influence de la source de la crise, ou sa capacité à alerter sur un sujet, sont des éléments déterminants pour une propagation sur les réseaux sociaux. Une conclusion de choix pour E. Bloch : l’important, sur les réseaux sociaux, c’est de veiller et d’analyser. 

 

Ensuitesystran, l’atelier par Systran sur la veille multilingue. Le multilinguisme est un des enjeux fort pour les outils de veille aujourd’hui. Mondialisation oblige, les problématiques sont internationales, l’influence comme l’opinion sont des enjeux qui doivent être gérés par l’entreprise comme des données à s’approprier. Si l’anglais est une langue indispensable de nos jours, ces sont bien le chinois et l’indien qui deviendront demain les langues à maîtriser. Grace à la traduction automatique et aux progrès de la technologie, la compréhension d’un environnement global devient plus facile. Même si des doutes persistent quant à la capacité de traduction des outils en autonomie, ils sont une aide précieuse pour les veilleurs et traducteurs, ainsi que pour les salariés d’une entreprise qui dorénavant peuvent recevoir des newsletters multilingues. La traduction vocale en temps réel est même quasiment à notre portée ! Mon avis : une belle techno.

 

digimind_maires_de_france1Enfin, le baromètre mené par Digimind sur les maires influents en France a été présenté par Christophe Asselin. Lors de la présentation, j’ai surtout apprécié l’analyse qui a accompagné les résultats. En effet, au delà des données quantitatives liées aux comptes Twitter, aux pages Facebook ou encore au nombre de billets de blogs, l’étude porte un regard qualitatif sur l’activité des maires (cf. mon billet sur l’influence) Ainsi, des analyses qualitatives et sémantiques ont été ajoutées aux analyses quantitatives pour en déduire des « profils types », comme l' »adepte convaincue pour Anne Hidalgo », « le sage » pour Alain Juppé ou encore « le polémiste » pour Estrosi. L’idée de « profil type » est assez séduisante car il est clair que les comportements en ligne sont clés de la façon dont se construit l’influence. Autrement dit, les influences ne sont pas les mêmes, selon le positionnement éditorial (les sujets de discussion), leur capacité à intéresser les internautes (sujets municipaux VS nationaux), ou celle à susciter des débats.

Sur l’ (e) influence

Par défaut

influenceday2

La semaine dernière a eu lieu l’influence Day, rendez-vous annuel organisé par Veille Mag sur l’influence.
La journée était composée de plusieurs conférences et tables rondes sur l’influence, abordant les sujets de l’opinion, l’identité, la veille, les territoires, les relations publiques et institutionnelles. Les intervenants étaient de qualité et les débats très enrichissants. Je n’ai pas pu aller à toutes les tables rondes mais j’ai sélectionné celles qui avaient le plus de rapport avec la veille et l’information  numérique globalement.

Deux réflexions sur le sujet.

La fin du débat sur la mesure de l’e-influence ? 

La veille et l’influence en ligne ont toujours été intimement liées, la veille permettant de détecter les influenceurs en ligne, grâce à des données quantitatives et l’usage voulait qu’on oubliait trop souvent les éléments qualitatifs. Mais le débat qui faisait rage il y a quelques années sur les paramètres de détection et de qualification des influenceurs, n’est plus. L’idée qu’un influenceur n’est influent qu’au sein de sa propre communauté a fait son chemin, en tous cas en ligne.

La conférence d’Augure à ce sujet l’a bien démontré, un influenceur se repère à partir de ses centres d’intérêts. La base Augure permet également d’identifier des sujets annexes afin de détecter d’autres influenceurs pertinents sur un sujet. L’ouverture basée sur des éléments qualitatifs est pertinente. Même si les outils permettent de valider par des éléments quantitatifs l’influence d’une personne, l’ensemble des intervenants sur le sujet ont tous pondérés leurs propos par des analyses qualitatives.

Comprendre et nuancer les éléments quantitatifs sont les clés d’une bonne stratégie de détection des influenceurs ! Trouver la bonne personne, avec le bon canal de communication pour lui délivrer le bon message au bon moment – et ce, sans se soucier de métrics, constitue le principal éléments de succès de relations publiques en ligne.

En ligne / hors ligne : relations institutionnelles déconnectées ? 

Je suis également allée à des conférences sur l’influence au sens strict du terme – telle que nous la connaissons dans les domaines des relations publiques et institutionnelles. Mais peu – voire même aucune, mais je ne suis pas allée à toutes – ont évoqué le pendant numérique de la question. Quid des questions sur le numérique et l’influence de la France, la normalisation, les relations institutionnelles ?. Si le numérique peut avoir un impact sur les décisions politiques locales – des citoyens peuvent par exemple interpeller leurs élus via des pétitions, ou les associations via des prises de position en ligne – elles semblent être anecdotiques pour les professionnels du secteur (voir également mon billet sur les réseaux sociaux locaux). Mais il est fort à parier que les interpellations numériques vont se développer, les affaires publiques devront de plus en plus considérer les opinions et relations numériques.

Enfin, ce fut également l’occasion pour moi de live-tweeter la journée et de me trouver dans le top 10 des influenceurs du jour par Augure ! Une mise en abîme sympathique. 

Les Influenceurs d’Influence Day 2014 – source : Augure

Objectif Smart Data

Par défaut

smart_data_ecole42 « Smart, big, open: peu importe le qualificatif, si la donnée n’est pas utile, elle n’a pas de valeurs », c’est ainsi qu’Henri Verdier, directeur d’Etalab, a conclu la conférence Débat la semaine dernière, consacrée à la Data dans le cadre du Data Day organisé par FrenchWeb.

 

Entre Big, Small, Fast, Open et les autres qualificatifs des data, il est parfois difficile de savoir dans quelle direction s’orienter pour optiliser ses données.
Si tous les qualificatifs ont leur sens (Big pour signifier l’ampleur, Fast pour illustrer une diffusion ultra rapide, ou Open pour caractériser leur accès libre), ce sont bien les Smart data qui sont le but ultime de tous projets liés à l’analyse des données.

Le qualificatif Smart veut ainsi désigner l’intelligence extraite de l’analyse des données. C’est même l’objectif du traitement des données, et l’essence des professionnels de l’information.
Je dis souvent qu’il ne suffit pas de traiter les données; il faut en plus les contextualiser dans un environnement décisionnel propre, au sein d’une entreprise. Quand le Big, le Fast et l’Open sont des états, le smart est la résultante d’une démarche volontaire d’exploitation de ces données.

Et comme l’a fait remarqué David Bessis, initier une démarche de big, fast et open data c’est avant tout le désir de faire des choses intelligentes avec les données.

A noter également que lors de cette conférence, les intervenants ont largement démystifié le concept de big data : selon eux, peu importe le volume de données, du moment que celles-ci parlent et signifient quelque chose. Ainsi, le fait que certains jeux de données « tiennent sur une clés USB » est un exemple qui est revenu régulièrement. En fait, derrière la mode du big data, il y a surtout l’enjeux de savoir quelles données sont utiles pour servir un objectif stratégique.

La notion de temps réèl – fast data- en revanche est resté un élément clé avec des enjeux bien particuliers : servir son client et lui délivrer la bonne info au bon moment selon un contexte d’achat à déterminer.

Enfin, l’Open data reste un concept privilégié au sein des débats puisqu’elle a cette particularité de dépendre d’une démarche d’ouverture des données de la part des entreprises et des administrations.

Retour sur le salon Big Data Paris : BI 2.0 ?

Par défaut

salon_big_dat_logo Cette semaine a eu lieu la 3ème édition du salon Big data Paris, consacré aux rencontres professionnelles entre acteurs majeurs de solutions Big Data. J’y suis allée avec pour objectif de déterminer quelle était la place occupée par les réseaux sociaux dans le développement de solutions logicielles de big data et de Business Intelligence, en pleine explosion. De mon parcours et visites de stands, je déduis trois positionnement sur le marché:

1. Les solutions logicielles intégrant pleinement leur offre sur l’analyse des données issues du web social sont mineures dans le paysage des acteurs représentés sur le salon, mais elles sont bien présentes . Spécialistes de leur secteur, les acteurs ont su développer un réel savoir faire en la matière et adapter les technologies à ces données si volatiles. Recherche de données en temps réel, outils de cartographie, sémantique, multilinguisme et crosslinguisme sont les principales clés innovantes pour le secteur. Focusmatic et Proxem sont les deux entreprises positionnées sur ce marché et qui étaient présentes. Elles illustrent la nouvelle génération des outils de veille sur le web social qui, grâce à leurs technologies, excellent dans le traitement des informations (suppression du bruit, rapprochement des termes, temps réel, etc.).

2. De nombreux acteurs ont intégré partiellement les données issues du web social, via des connecteurs. Si la récupération et l’analyse de ces données ne sont pas le cœur de leurs métiers, ils introduisent les éléments issus de Facebook et Youtube, le plus souvent sous l’impulsion de leurs clients. C’est donc une première évolution des technologies d’analyse de données internes intégrant des données externes. Une prise de conscience que les réseaux sociaux deviennent informations stratégiques. Et nécessitent d’être incorporées dans les analyses BI. Par exemple, Access Insight, Bime et Sinequa.

3. Enfin, les solutions logicielles qui n’intègrent pas les réseaux sociaux, souvent par choix stratégique. . Considérant que leur technologie est puissante sur les données d’un certain type, ces acteurs pour la plupart préfèrent se concentrer sur leur cœur de métier, ce que je trouve plutôt pertinent. Pour eux, l’intégration des réseaux sociaux n’est pas la priorité du moment et ils se concentrent davantage sur le positionnement sur le marché, le recrutement de talent, le développement de leur offre logicielle originale. Il sera intéressant de voir dans les prochaines années l’évolution de cette catégorie de solutions. Les entreprises utilisatrices devront-elles coupler deux solutions logicielles indépendantes ? ou créer des connecteurs entre eux ? L’explosion des réseaux sociaux sera-t-elle intégrée à la BI ou évoluera-t-elle de son côté, en parallèle ? je crois qu’à long terme, les données devront être assemblées pour donner du sens à l’analyse. Le web social d’un coté et les données internes de l’autre, n’ont pas vocation selon moi, à rester en silo, mais bien à s’auto-enrichir.

Quelques autres remarques sur le salon:
– Un exposant me confiait que cette année, le salon était bien plus structuré. Les acteurs s’exposaient avec un positionnement clair (alors que les autres années, c’était bien plus anarchique selon lui). Une signe de relative maturation du secteur.
– Les data scientists sont vraiment la perle rare du moment (rien de nouveau, mais de nombreux témoignages sur place)
– L’atelier proposé par Teradata était très enrichissant. Même si je ne parle pas l’informaticien, j’ai trouvé leur présentation assez claire, les speakers étaient dynamiques et passionnés.

Des pétitions en ligne : retour sur le TankTalk avec Change France

Par défaut

change.orgLa semaine dernière dans la cadre des TankTalks, avait lieu une rencontre avec Benjamin Desgachon et Sarah Durieux, de Change France, au cours de laquelle nous avons pu échangé sur les enjeux des sites de pétition en ligne au sein des débats publics.

Les pétitions en ligne occupent une place particulière dans le paysage des débats en ligne car elles ont la capacité de fédérer les internautes, de cristalliser les opinions sur un temps long et surtout elles portent un objectif précis, un but à atteindre, une cause à défendre.

Je pourrais parler longtemps des pétitions en ligne, c’est un sujet qui m’intéresse particulièrement (lire mon article sur les réseaux sociaux locaux) car il illustre la capacité qu’a Internet, de fédérer et augmenter le pouvoir des citoyens aujourd’hui. Par ailleurs, je suis assidûment ou rencontre tous les jours ou presque, de nouvelles pétitions crées et / ou relayées par les parties prenantes de mes clients. Certaines fonctionnent, d’autre non, et c’est toujours un défi d’essayer de connaitre au plus tôt la stratégie de l’organisateur, comme de parier sur l’objectif de mobilisation, et sa réussite. 

Lors du TankTalk, nous avons évidemment évoqué des exemples de pétitions comme celle créée par Envol Vert pour qu’Eram fournisse des garanties environnementales sur l’origine de son cuir, ou celle lancée par Charles de Courson pour plus de transparence concernant les indemnités parlementaires. Mais si les pétitions nationales sont les plus médiatiques, de nombreuses autres, aux portées locales, portent également leurs fruits (non à la subvention d’un concert de David Guetta à Marseille). 

Il y a eu un échange très riche entre les deux speakers et l’auditoire, si bien que les slides de présentation ont été rapidement abandonnées. De nombreux chiffres ont été évoqués, des succès, des flops, des tendances et des key learnings. Aujourd’hui, je retiens trois enseignements de cette conférence, qui illustrent l’avenir du modèle de la pétition en ligne. 

Trois enseignements 

Un espace de débat public à part entière: les possibilités d’échanges d’idées et de diffusion d’information permises par les plateformes professionnalisent la démarche (voir mon billet sur la professionnalisation des débats publics). Change propose par ailleurs des modules d’inspiration pour des campagnes réussies.

Un nombre de signature significatif ? La signature n’a pas vocation à augmenter le militant qui est en nous. C’est le nombre de signatures qui prime, et non la capacité à mobiliser une population. A ce propos j’avais pu remarquer régulièrement, mais davantage via les groupes de mobilisation Facebook, que moins de 10 % des adhérents à un groupe, se mobilisaient physiquement pour défendre offline la cause pour laquelle il s’est mobilisé en ligne. 

Une démarche de Co-construction nécessaire. Les pétitions n’ont pas vocation à affronter ou accuser frontalement entreprises ou collectivités, mais à insuffler une réflexion commune aux parties. Procédant d’une démarche horizontale, la pétition ne sert qu’à illustrer la notoriété de la cause auprès d’un public. En cela, je trouve que la démarche reflète bien l’esprit du web, de co-construire plutôt que de cliver. La pétition critique et sans proposition d’alternative semble vouée à l’échec. 

Deux autres remarques qui prêtent à réflexion, plus fun – et que je commenterai peut-être plus tard :). Première remarque, les causes animales sont les thématiques qui font l’objet de plus de pétition en ligne. Deuxième remarque, globalement, les hommes sont plus nombreux à lancer les pétitions, et les femmes plus nombreuses à les signer. A méditer….