About monitoring online reputation software and decoding human languages

Par défaut

decoding_human_languagesTwo recent and really interesting articles deal with understanding online opinions :
Sentiment analysis: Understanding customers who don’t mean what they say, from Tech Republic
A computational model to measure how good (or bad) your puns really are, from Discover.

These articles highlight the importance of understanding online opinions.
In the past decade, online reputation has been one of the new concerns for companies. Indeed, it is a well-known fact that nowadays people use internet whether it be for shopping, reading the news, or using it for one’s profession.

As a result, the reputation that the companies have on line has become an important part of the communication strategy.
So they have to invest in order to monitor their reputation, otherwise they could face a bad buzz. To monitor e-reputations, specialized software seems to be the ideal solution, however to my mind it is not sufficient.

Even though software enables one to get online opinion, most software doesn’t analyze the writers’ profiles, explain what motivates them to express or determine if what they say is true.
In spite of technology research, human language remains hard to decrypt and the risk is to misread opinions.

However, there is software that exists which can be helpful to analyze opinion; either producing text analysis or producing quantitative indicators. Indeed, a large amount of e-reputation software makes online opinions easier to understand.

As all companies are concerned by online reputation, the software market is prosperous and will continue to be so. Thus, the professionals who decrypt online opinion play an important role, unless one day research succeeds in doing it.

Publicités

Real time data for the public transport industry

Par défaut

There is no denying that real time information is part of the internet revolution, and it seems to me that the transport industry illustrates it in a good way.

First and foremost, transport is a daily preoccupation for most people, whether they live in a town, or in the suburbs, or even in the country. Indeed, most people need a means of transport, even if it is just to go shopping or to go somewhere to do a sport.

Secondly, public transport should take into consideration the customers’ feelings : in my opinion, most people base their choice on comfort, price, speed and punctuality. . Information that can one get on one’s smartphone helps people make the right choice. It is also useful for people who are running late because they can make up their lost time.

This is the reason why public transport companies such as RATP, SNCF or STIF have developed mobile applications.

Most people who lives in a big town have the choice of bus, underground, or trains, and mobile applications are extremely useful because the passengers would know about roadworks or delays.

But it should be borne in mind that some people cycle, walk or drive a car when they want to go somewhere, so they don’t always use public transport.

Although these people have applications on their telephones, in my opinion, these applications should be included in the public transport ones. Offering real services.

Objectif Smart Data

Par défaut

smart_data_ecole42 « Smart, big, open: peu importe le qualificatif, si la donnée n’est pas utile, elle n’a pas de valeurs », c’est ainsi qu’Henri Verdier, directeur d’Etalab, a conclu la conférence Débat la semaine dernière, consacrée à la Data dans le cadre du Data Day organisé par FrenchWeb.

 

Entre Big, Small, Fast, Open et les autres qualificatifs des data, il est parfois difficile de savoir dans quelle direction s’orienter pour optiliser ses données.
Si tous les qualificatifs ont leur sens (Big pour signifier l’ampleur, Fast pour illustrer une diffusion ultra rapide, ou Open pour caractériser leur accès libre), ce sont bien les Smart data qui sont le but ultime de tous projets liés à l’analyse des données.

Le qualificatif Smart veut ainsi désigner l’intelligence extraite de l’analyse des données. C’est même l’objectif du traitement des données, et l’essence des professionnels de l’information.
Je dis souvent qu’il ne suffit pas de traiter les données; il faut en plus les contextualiser dans un environnement décisionnel propre, au sein d’une entreprise. Quand le Big, le Fast et l’Open sont des états, le smart est la résultante d’une démarche volontaire d’exploitation de ces données.

Et comme l’a fait remarqué David Bessis, initier une démarche de big, fast et open data c’est avant tout le désir de faire des choses intelligentes avec les données.

A noter également que lors de cette conférence, les intervenants ont largement démystifié le concept de big data : selon eux, peu importe le volume de données, du moment que celles-ci parlent et signifient quelque chose. Ainsi, le fait que certains jeux de données « tiennent sur une clés USB » est un exemple qui est revenu régulièrement. En fait, derrière la mode du big data, il y a surtout l’enjeux de savoir quelles données sont utiles pour servir un objectif stratégique.

La notion de temps réèl – fast data- en revanche est resté un élément clé avec des enjeux bien particuliers : servir son client et lui délivrer la bonne info au bon moment selon un contexte d’achat à déterminer.

Enfin, l’Open data reste un concept privilégié au sein des débats puisqu’elle a cette particularité de dépendre d’une démarche d’ouverture des données de la part des entreprises et des administrations.

Retour sur le salon Big Data Paris : BI 2.0 ?

Par défaut

salon_big_dat_logo Cette semaine a eu lieu la 3ème édition du salon Big data Paris, consacré aux rencontres professionnelles entre acteurs majeurs de solutions Big Data. J’y suis allée avec pour objectif de déterminer quelle était la place occupée par les réseaux sociaux dans le développement de solutions logicielles de big data et de Business Intelligence, en pleine explosion. De mon parcours et visites de stands, je déduis trois positionnement sur le marché:

1. Les solutions logicielles intégrant pleinement leur offre sur l’analyse des données issues du web social sont mineures dans le paysage des acteurs représentés sur le salon, mais elles sont bien présentes . Spécialistes de leur secteur, les acteurs ont su développer un réel savoir faire en la matière et adapter les technologies à ces données si volatiles. Recherche de données en temps réel, outils de cartographie, sémantique, multilinguisme et crosslinguisme sont les principales clés innovantes pour le secteur. Focusmatic et Proxem sont les deux entreprises positionnées sur ce marché et qui étaient présentes. Elles illustrent la nouvelle génération des outils de veille sur le web social qui, grâce à leurs technologies, excellent dans le traitement des informations (suppression du bruit, rapprochement des termes, temps réel, etc.).

2. De nombreux acteurs ont intégré partiellement les données issues du web social, via des connecteurs. Si la récupération et l’analyse de ces données ne sont pas le cœur de leurs métiers, ils introduisent les éléments issus de Facebook et Youtube, le plus souvent sous l’impulsion de leurs clients. C’est donc une première évolution des technologies d’analyse de données internes intégrant des données externes. Une prise de conscience que les réseaux sociaux deviennent informations stratégiques. Et nécessitent d’être incorporées dans les analyses BI. Par exemple, Access Insight, Bime et Sinequa.

3. Enfin, les solutions logicielles qui n’intègrent pas les réseaux sociaux, souvent par choix stratégique. . Considérant que leur technologie est puissante sur les données d’un certain type, ces acteurs pour la plupart préfèrent se concentrer sur leur cœur de métier, ce que je trouve plutôt pertinent. Pour eux, l’intégration des réseaux sociaux n’est pas la priorité du moment et ils se concentrent davantage sur le positionnement sur le marché, le recrutement de talent, le développement de leur offre logicielle originale. Il sera intéressant de voir dans les prochaines années l’évolution de cette catégorie de solutions. Les entreprises utilisatrices devront-elles coupler deux solutions logicielles indépendantes ? ou créer des connecteurs entre eux ? L’explosion des réseaux sociaux sera-t-elle intégrée à la BI ou évoluera-t-elle de son côté, en parallèle ? je crois qu’à long terme, les données devront être assemblées pour donner du sens à l’analyse. Le web social d’un coté et les données internes de l’autre, n’ont pas vocation selon moi, à rester en silo, mais bien à s’auto-enrichir.

Quelques autres remarques sur le salon:
– Un exposant me confiait que cette année, le salon était bien plus structuré. Les acteurs s’exposaient avec un positionnement clair (alors que les autres années, c’était bien plus anarchique selon lui). Une signe de relative maturation du secteur.
– Les data scientists sont vraiment la perle rare du moment (rien de nouveau, mais de nombreux témoignages sur place)
– L’atelier proposé par Teradata était très enrichissant. Même si je ne parle pas l’informaticien, j’ai trouvé leur présentation assez claire, les speakers étaient dynamiques et passionnés.

Smart grids et intelligence territoriale

Par défaut

smart_grids2 Innovation et optimisation des services : c’est la promesse des smart grids – réseaux intelligents de distribution d’électricité, avec informatique embarquée. C’est une révolution pour les distributeurs d’énergie, qui ont la capacité de déterminer, de façon très précise, la distribution et la consommation sur l’ensemble du territoire. Cette intelligence localisée permet d’adapter les flux et d’optimiser la distribution de l’énergie.

Cette démarche relève d’un double challenge : optimiser les coûts de distribution, et récolter les informations utiles. Ces deux éléments s’auto-enrichissent et permettent une adaptation maximale des réseaux.

Les smart grids illustrent les enjeux de l’intelligence économique territoriale : prendre en compte l’ensemble des informations liées à un territoire pour adapter sa stratégie et ses investissements financiers. L’intelligence territoriale relève d’une adaptation maximale des produits et services déployés sur les territoires, en fonction de leurs propriétés techniques, technologiques, culturelles, géographiques ou encore démographiques. Si les usages diffèrent d’un territoire à l’autre, les entreprises doivent adapter leurs produits et services, dans le souci d’une meilleure prise en compte des besoins des consommateurs. L’intelligence territoriale, illustrée par les technologies de smartgrids permet une dynamique « gagnant-gagnant » : gagnant pour l’entreprise qui optimise alors ses coûts, et gagnant pour les consommateurs qui voient leurs offres de services se diversifier et s’adapter au mieux à leurs habitudes. 

Les smarts grids permettent l’adéquation de trois éléments d’informations stratégique : intelligence économique (prise en compte de l’ensemble de l’environnement d’un produit), territoriale (prise en compte des spécificités des territoires), et numérique (rendue possible grâce aux technologies numérique). 

Crédit Photo : Vetta

Veille en ligne et innovation

Par défaut

La veille a toujours été considérée comme une arme au service de l’innovation pour les entreprises. Qu’elle soit concurrentielle, marketing ou d’opinions, elle est un outil qui doit permettre aux entreprises d’engager des processus premettant l’innovation.

La co-création : un mirage ?

innovation_reseaux

A la grande époque de l’émergence du web social, on considérait assez simplement que les consommateurs et internautes allaient aider les entreprises à innover. Il y a eu un temps où les plateformes dédiées à l’échange d’idées étaient à la mode, les entreprises proposant aux internautes des retours d’expériences sur leurs produits et services. C’était l’ère de la « co-création », où entreprises et consommateurs allaient ensemble créer des outils permettant aux entreprises de s’adapter toujours plus aux usages de leurs produits. Cette idée de co-création était prometteuse et plutôt salutaire.

Mais finalement, il n’y a pas eu de développement marquant de cette pratique, et pour plusieurs raisons, au premier rang desquelles la méfiance des consommateurs face à un dispositif de dialogue encore naissant et inhabituel, ou le temps à consacrer à des études produits pour des entreprises qui finalement ne promettaient en rien la prise en compte de ces idées. Enfin, il faut noter quand même que certaines marques ont su développé des processus d’écoute et de prise en compte des opinions des internautes, comme Lego ou Monopoly. Il est à noter, dans ces cas, que ces marques ont développé un univers et un affect très particulier, pouvant fédérer autour de leurs jeux des communautés déjà constituées, au delà de l’entreprise et au delà d’Internet. La co-création est donc une activité qui n’est pas à la portée de toutes les marques.

La veille en ligne, pure produit ?

pure_produit

Le web social est pourtant une mine d’information pour l’innovation produit pour les entreprises. En écoutant, simplement, les consommateurs sur les réseaux sociaux, les entreprises ont déjà de nombreuses informations à leur disposition, sur les pratiques des consommateurs, l’usage qui est fait de leurs produits, ou les tendances qui se dégagent d’un secteur, pour s’approprier ces usages et les transformer, les appliquer, à leurs offres.

Mais elle ne fonctionne pas seule, en silo. Elle est complémentaire des panels de consommateurs, des études d’opinions et d’image de marque. Elle s’inscrit dans un environnement complexe de prise en compte des attentes des consommateurs et des tendances du marché. Elle nourrit la réflexion marketing et s’inscrit pleinement dans le processus d’innovation. Elle n’est pas « la cerise sur le gâteau » des département études, comme optionnelle, mais au contraire, doit alimenter les autres veilles, être connectée aux études et permettre l’enrichissement permanent de la réflexion issue de l’ensemble des études.

Promesse tenue ?

Finalement, Internet ne serait qu’un canal supplémentaire, un outil, une méthode, de recueil des opinions des consommateurs ? Si le réseau n’a pas tenu toute sa promesse de la co-création, il semble qu’il ait pour le moins, favorisé l’émergence d’une opinion disponible, illustrant tendances et usages des produits, et qui révèle toute sa richesse lorsqu’elle est prise en compte dans un processus d’innovation produits.

Des pétitions en ligne : retour sur le TankTalk avec Change France

Par défaut

change.orgLa semaine dernière dans la cadre des TankTalks, avait lieu une rencontre avec Benjamin Desgachon et Sarah Durieux, de Change France, au cours de laquelle nous avons pu échangé sur les enjeux des sites de pétition en ligne au sein des débats publics.

Les pétitions en ligne occupent une place particulière dans le paysage des débats en ligne car elles ont la capacité de fédérer les internautes, de cristalliser les opinions sur un temps long et surtout elles portent un objectif précis, un but à atteindre, une cause à défendre.

Je pourrais parler longtemps des pétitions en ligne, c’est un sujet qui m’intéresse particulièrement (lire mon article sur les réseaux sociaux locaux) car il illustre la capacité qu’a Internet, de fédérer et augmenter le pouvoir des citoyens aujourd’hui. Par ailleurs, je suis assidûment ou rencontre tous les jours ou presque, de nouvelles pétitions crées et / ou relayées par les parties prenantes de mes clients. Certaines fonctionnent, d’autre non, et c’est toujours un défi d’essayer de connaitre au plus tôt la stratégie de l’organisateur, comme de parier sur l’objectif de mobilisation, et sa réussite. 

Lors du TankTalk, nous avons évidemment évoqué des exemples de pétitions comme celle créée par Envol Vert pour qu’Eram fournisse des garanties environnementales sur l’origine de son cuir, ou celle lancée par Charles de Courson pour plus de transparence concernant les indemnités parlementaires. Mais si les pétitions nationales sont les plus médiatiques, de nombreuses autres, aux portées locales, portent également leurs fruits (non à la subvention d’un concert de David Guetta à Marseille). 

Il y a eu un échange très riche entre les deux speakers et l’auditoire, si bien que les slides de présentation ont été rapidement abandonnées. De nombreux chiffres ont été évoqués, des succès, des flops, des tendances et des key learnings. Aujourd’hui, je retiens trois enseignements de cette conférence, qui illustrent l’avenir du modèle de la pétition en ligne. 

Trois enseignements 

Un espace de débat public à part entière: les possibilités d’échanges d’idées et de diffusion d’information permises par les plateformes professionnalisent la démarche (voir mon billet sur la professionnalisation des débats publics). Change propose par ailleurs des modules d’inspiration pour des campagnes réussies.

Un nombre de signature significatif ? La signature n’a pas vocation à augmenter le militant qui est en nous. C’est le nombre de signatures qui prime, et non la capacité à mobiliser une population. A ce propos j’avais pu remarquer régulièrement, mais davantage via les groupes de mobilisation Facebook, que moins de 10 % des adhérents à un groupe, se mobilisaient physiquement pour défendre offline la cause pour laquelle il s’est mobilisé en ligne. 

Une démarche de Co-construction nécessaire. Les pétitions n’ont pas vocation à affronter ou accuser frontalement entreprises ou collectivités, mais à insuffler une réflexion commune aux parties. Procédant d’une démarche horizontale, la pétition ne sert qu’à illustrer la notoriété de la cause auprès d’un public. En cela, je trouve que la démarche reflète bien l’esprit du web, de co-construire plutôt que de cliver. La pétition critique et sans proposition d’alternative semble vouée à l’échec. 

Deux autres remarques qui prêtent à réflexion, plus fun – et que je commenterai peut-être plus tard :). Première remarque, les causes animales sont les thématiques qui font l’objet de plus de pétition en ligne. Deuxième remarque, globalement, les hommes sont plus nombreux à lancer les pétitions, et les femmes plus nombreuses à les signer. A méditer….