Blogs Thématiques Et Intelligence économique

Art de la guerreA l’Ecole de Guerre Economique (EGE) on sait se vendre c’est sûr, mais surtout mettre en place des choses très pertinentes qui collent à l’actualité, à la discipline, à la didactique, bref, peut-être des exemples à suivre..

Des blogs spécialisés sur une sujet vu sous l’angle de l’intelligence économique…

Lu sur ce billet de VerbalKint et celui de Blogs et IE parlant de l’EGE, l’Ecole de Guerre Economique, formation de 3ème cycle ouverte depuis 1997 par l’ESLSCA (Ecole Supérieure Libre des Sciences Commerciale Appliquées).

Objectifs de ces blogs :

  • Familiariser les étudiants à cet outil
  • Participer à la diffusion de connaissance sur Internet
  • Appliquer les méthodes de veille et d’analyse, propres à l’Intelligence Economique, à différents secteurs et problématiques stratégiques. A priori l’énoncé de l’exercice.
  • Enfin, mettre en avant les qualités des étudiants de cette très symbolique 10ème promotion de la plus ancienne formation d’IE en Europe.

Je crois personnellement aux sites et aux blogs thématiques couvrant de manière pointue un sujet et formant un nombre restreint de références pour les utilisateurs. Simplement parce que, qu’il s’agisse de rechercher un produit, une information, une formation , etc.., nous ratissons dan un premier temps tout ce que nous trouvons sur le sujet avant de ne garder tout au plus qu’une dizaine de références, parfois seulement 3 ou 4.

L’information, abondante, débordante, diluée, à besoin d’être ordonnée.

La première page de Google ne contient que 10 résultats. Les outils de bookmarks pourrons collecter à l’infini, partager et synthétiser, extraire l’essence des documents indexés. Le temps que vous pourrez accorder à votre sujet et votre maîtrise relative de ce dernier vous forceront à restreindre votre recherche. Il y a une sélection naturelle des sources de qualité et de confiance qui se fait, inévitable.

EchecsNous parlons donc d’influence, et cette initiative qui vient de l’IE me semble doublement intéressante si, à l’issue de cet exercice, l’influence et le référencement des blogs de ses étudiants sont étudiés et intégrés au bilan.

Le meilleur exemple d’appropriation commerciale vient des professionnels du Web qui les premiers ont professionnalisé le blogging afin de faire naître et mettre en avant une génération de personnalités du Web, gourous du 2.0 et du Web marketing plus ou moins légitimes.

Comme l’âge de la découverte des blogs personnels et de leur influence est révolu car compris et intégré par les organisations (entreprise, associations et autres groupements, services d’information…), comme Internet est le lieu de l’information, et comme les enjeux sont un pouvoir bien plus puissant que celui de la Presse jusqu’à l’orée de ce siècle, il semble naturel que les acteurs de la veille en tout genre et de l’intelligence économique suivent de très près – et pourquoi pas de manière ouverte en publiant leurs résultats dans des libres blancs ? – les phénomènes liés aux blogs, à l’User Generated Content, Crowd Sourcing, partage d’informations, identité numérique, etc..

Initiative à suivre et quoi qu’il en advienne, sujet sur lequel nous aurons l’occasion de revenir, non ?

Voici la liste des supports de la première édition des Blogs de l’EGE :

Sphère d’Influence de la France : Réflexion sur la représentation française à l’étranger (réseau diplomatique, présence dans les organismes internationaux et celle des entreprises françaises) au regard de son influence réelle dans le monde, qu’elle soit politique, économique ou culturelle

IELuxury : Affrontements & les stratégies de conquête dans l’industrie du luxe

Vin Spirit IE : Enjeux et stratégie de conquête sur le marché viticole

EnergieInfluence : Enjeux et conséquences de la libéralisation dans le secteur énergétique en Europe

Googlinside : Stratégie de conquête et d’expansion de Google

ICDélocalisations : “Inde/Chine, deux types de délocalisation; échecs et réussites.”

Hedge Funds Watch : Stratégies et modes d’intervention des fonds de pension

Stratégie environnementale et compétitivité : Une lecture de la relation entre compétitivité et environnement, lecture managériale et sociopolitique propre à inciter les acteurs économiques à prendre conscience des opportunités

Le Cinéma Enchaîné : La défense du patrimoine culturel français à travers l’industrie cinématographique publics à l’horizon 2007?

Illusion Durable : Le but de ce blog est d’identifier le décalage qu’il peut exister entre les discours des politiques et/ou des ONGs et la faisabilité du développement durable

ConsoSphère : Les jeux d’influence autour des associations de consommateurs

DigIntel : Les stratégies de l’industrie culturelle face au défi du numérique

Liens :

France 24, Sur Les Ondes Et En Ligne

Lancement de TV Elysée France 24 mercredi 6 décembre

Et en attendant the launch of the full version of the France 24 Website, et pas pour Firefox, c’est ici : www.france24.com.

France 24CBNews : Le Pdg de France 24 Alain de Pouzilhac doit lancer officiellement aujourd’hui à 20h29 depuis Paris la première chaîne française d’information internationale. Disponible pendant 24 heures en « streaming » sur internet, elle sera diffusée dès demain, jeudi 7 décembre, à 20h30 sur le câble et le satellite, en français et en anglais. Au milieu de 2007, elle diffusera quatre heures d’émissions quotidiennes en arabe.

Selon ses dirigeants, elle touchera « potentiellement » dès son lancement 80 millions de foyers, soit 190 millions de téléspectateurs. En France, France 24 sera visible sur CanalSat et TPS pour le satellite, sur les offres Noos/Numéricable et Erenis pour le câble. Elle sera disponible sur le câble, le satellite ou via ADSL en Europe, au Proche et Moyen-Orient, et en Afrique, mais également à New York et à Washington, sièges des principales organisations internationale (ONU, FMI, Banque mondiale), et sur les téléviseurs de grandes chaînes hôtelières.

– Et la TNT ?..

Reuters : Détenue à parts égales par TF1 et France Télévisions, cette « CNN à la française » est dotée d’un budget annuel de 80 millions d’euros. La chaîne a pour ambition de proposer une « vision du monde » distincte de celles de ses concurrentes anglophone CNN ou arabophone Al Djazira. (…) Une couverture mondiale est envisagée à partir de 2008.

En fait, j’attends plutôt le site avec impatience en espérant qu’on évitera le chaos d’un lancement à la Geoportail..

Tim Berners-lee : Une Science Du Web

Tim Berners-Lee annonce une Science du Web

De très rares articles ont mentionné l’annonce de Tim Berners-Lee, le New York Times et Slashdot notamment on couvert le sujet le 2 novembre dernier, par ailleurs voici la seule dépêche (AFP Londres) en français reprise par endroits et qui avait titré :

Tim Berners-LeeUn avenir non démocratique pour le Web ?

Le scientifique britannique Tim Berners-Lee, qui a mis au point le World Wide Web, s’est inquiété jeudi de ce qu’il puisse être utilisé à des fins «non démocratiques» et a défendu le projet d’un centre de recherche sur l’avenir de l’Internet.

«Si nous n’avons pas la capacité de comprendre le Web comme il devient aujourd’hui, nous finirons avec des choses très mauvaises», a prévenu Sir Berners-Lee, aujourd’hui chercheur au Massachusetts Institute of Technology (États-Unis), dans une interview à BBC News.

«Des phénomènes non démocratiques pourraient apparaître et les fausses informations se répandront sur le Web», s’est-il inquiété, estimant que les changements technologiques causés par internet pouvaient mener à une transformation radicale de la société.

«Étudier ces forces et la manière dont elles sont affectées par la technologie sous-jacente nous semble réellement important», a-t-il ajouté.

Son projet de centre de recherche sur le Web ne serait donc pas seulement ouvert à des spécialistes de l’informatique, mais à des chercheurs issus de différentes disciplines, capables d’étudier le Web comme phénomène technologique mais aussi social.

En 1989, Tim Berners-Lee, alors au Cern (laboratoire de physique des particules) à Genève, a inventé le concept de lien hypertexte et l’architecture d’un réseau mondial en «toile d’araignée» (Web), qui a facilité l’accès à l’Internet, jusque-là réservé à une petite communauté scientifique.

Je vous invite à consulter les liens suivants [EN] :

Ces deux derniers articles sont loin de se cantoner à l’éclairage un peu trop alarmiste de la dépêche AFP et rentrent dans le détail de ce que devra être un croisement des sciences sociales et des sciences informatiques. Ok, une couche de sciences cognitives et l’entrée en matière n’est pas loin de faire nouvelle SF des années 50…

Comprendre et développer les technologies du Web comme un vaste système unique…

Tim Berners-LeeLe Web étant défini – par Tim Berners-Lee entre autres – comme un espace universel et le lieu d’échanges et de relations sociales, la priorité sera donnée aux recherches sur les réseaux sociaux et l’étude des comportements sur le Web à travers les Sciences sociales, avant de s’intéresser à l’étude des conséquences économiques sur le Web.

Espoirs et préoccupations

Si les objets d’étude comme la confiance ou encore la vie privée sur Internet sont donnés en exemple, il me semble que ces derniers temps les réflexions nous tirent un peu de la torpeur euphorique du Web dit-2.0, avec des préoccupation comme la problématique de l’insécurité informatique dans les services Web, la pérennité de ces mêmes services auxquels vous confiez vos données, les bulles, les risques économiques et sociaux de la spéculation sur ce que sera le Web demain.

De même, il ne faut cesser d’envisager l’Internet et le Web en particulier comme une chance, un des moments uniques dans l’Histoire de l’Humanité. Rien que ça.

Cela vaut la peine d’y réfléchir, et d’y revenir.

www.webscience.org

Openajax Et Les Dangers Des Mashup

Remixe, reuse, resample
L’utilisation massive de services Web et de leurs cohortes de mashup et la mise en oeuvre en quelques clics de ces bouts de code est aujourd’hui un sujet extrêmement préoccupant pour qui s’intéresse à la sécurité informatique.

Et ce tant dans ses aboutissants privés : le détournement de données personnelles et la manipulation, que professionnels : où l’intelligence économique et les méthodes agressives actuelles rendent très floue la frontière entre l’entreprise et la malfaisance… La fin justifie les moyens.

Les services d’agrégation de contenu exogène, ou mashup, représentent une menace pour les systèmes d’information.

Je reviens sur un article paru le 9 octobre dernier sur le Monde Informatique qui s’intéresse aux avertissements lancés par le consortium OpenAjax Alliance. Cyrille Chausson y met en avant l' »exécution Javascript non-contrôlées et [l’]immaturité des développeurs« .

Car rappelons-le, la super technologie sur laquelle reposent tous les espoirs des valeureux entrepreneurs du Web dit-2.0 n’est autre que Javascript, le langage côté client (qui s’exécute sur votre machine) qui déjà aux plus belles heures de l’An 2000 pré-Bulle permettait de créer ces roll-overs sur les boutons de navigation, de vous alerter de la non saisie de votre email dans un formulaire et autres menus déroulants plus ou moins buggués.

L’assemblage hasardeux des technologies et la Ruée vers le 2.0

Mashup and widgetsAujourd’hui c’est donc ce même langage, s’appuyant sur des librairies de scripts, le DOM (Document object Model) de la page HTML, les langages XML (information) et CSS 2 (habillage graphique) et les requêtes serveur asynchrones (ne nécessitant pas le changement ou le rechargement de la page), qui constitue AJAX.

Bien qu’un grand nombre de développeurs de qualité travaillent au sein de cette industrie et sans vouloir amoindrir le formidable intérêt que suscite le fourmillement d’idées, l’explosion de créativité du secteur, il faut être honnête, dans cette Ruée vers le 2.0, pour un grand nombre des sociétés aux modes de production « agiles » et une partie des webmasters élaborant individuellement mashups et autres plugins, c’est du grand bricolage.

Normal. La facilité avec laquelle les briques fournies (API, librairies, applications Opensource, ..) sont rendues manipulables par un jeune débrouillard ou un développeur débutant sans comprendre le code utilisé repousse très loin toute notion de vérification de la sécurité des développements réalisés.

Sécurité zéro

Les services Web et mashup ne sont pas lancés dans le 2.0 sans la possibilité de les inclure et de les connecter aux travers des pages de leurs utilisateurs. C’est le modèle publicitaire qui veut ça : diffusion virale, abonnés, affiliation, pseudo-statistiques (on pourrait revenir sur ce sujet).

Leur intégrétation est donc toujours plus facilitée, sous la forme de widgets dans les sites et pages personnalisables, de plugins pour les socles d’édition célèbres comme WordPress, en un clic l’échange de flux d’information au format XML – comme les fameux fichiers RSS – a lieu dans les tuyaux d’un nombre plus ou moins complexe d’intermédiaires : sources d’information, services utilisés, applications et librairie de scripts Opensource employés, customisations de code, ..

Lors de l’AjaxWorld Conference qui s’est tenue du 2 au 4 octobre à Santa Clara (Californie), David Boloker, fondateur de l’OpenAjax Alliance et CTO chez IBM a pointé du doigt les menaces que constituent les services d’agrégation de contenu exogène (ou mashup) pour les systèmes d’informations. Selon lui, [les mashup] « représentent deux dangers : un premier très connu, représenté par le scripting côté serveur, et dont on peut se protéger. Le second, davantage lié à une brique fondamentale d’Ajax, Javascript, qui nécessite une exécution sur le poste client. « Si vous créez des mashup à partir de sources internes ou de partenaires – des sources de confiance -, les mashup sont sécurisés. Le problème intervient surtout quand on crée des agrégations entre ma société et une personne inconnue, qui peut soit injecter du code Javascript malformé, soit essayer de prendre le contrôle de ma machine. Comment alors sécuriser les mashup en autorisant ou non leur accès ? » Un problème que l’OpenAjax Alliance compte par ailleurs résoudre en travaillant en collaboration avec ses membres et le W3C. »

David Boloker a mis en cause l’immaturité des développements provoqué notamment par un manque d’expérience de certains développeurs. « Si les projets de mashup ont abouti grâce à des développeurs chevronnées, certaines personnes développent en Javascript sans savoir comment écrire le code. Et dans le cas de mashup, cela peut être catastrophique« .

Vient le moment où je noircis le tableau

Au-delà de tous les business plan et des modèles économiques à inventer, le problème des données personnelles qu’on vous à invite à gérer à votre place à chaque nouveau service sans aucune garantie – puisque c’est « gratuit » – est déjà posé.

Celui des études comportementales de votre consommation de l’Internet ne vous engage encore qu’à faire vivre les panels des agences qui doivent remplacer la ménagère de moins de 50 ans. La démocratisation de l’accès à Internet a eu lieu et les cookies qui nous dérangeaient il y a quelques années deviennent un combat d’arrière-garde.

La cybercriminalité prospère et les quelques dizaines de spams que vous purgez journalièrement avec un petit froncement de sourcils ne sont que des balbutiements d’acariens comparés à des intrusions malveillantes de communautés Opensource mal encadrées, à la gestion de l’information opaque d’un service de diffusion de vidéo à très forte audience ou à l’exploitations de failles XML/RSS.

Sources :

Internet Passe Devant La Presse écrite En Europe

JournalC’est dans LeMonde.fr que je le lis : « les européens consacrent désormais plus de temps à surfer sur Internet qu’à lire journaux et magazines sur papier« . L’étude, publiée le 9 octobre dans le Financial Times, a été réalisée par le cabinet Jupiter Research auprès de plus de 5 000 personnes, au Royaume-Uni, en France, en Allemagne, en Italie et en Espagne.

Une étude qui en appelle d’autres donc, sur un sujet qui n’est pas loin de faire consensus auprès des populations d’internautes réguliers. Faites un sondage autour de vous pour savoir qui achète régulièrement un quotidien, de la presse spécialisée, consulte les pavé de Pages Jaunes qu’on stocke chaque année dans votre hall, qui recherche un emploi ou un logement sans passer par Internet, etc…

Informations clés :

  • Les Européens passeraient en moyenne quatre heures par semaine sur Internet,
  • 3 heures à lire la presse,
  • Entre 2003 et 2006, le temps passé sur le Web a doublé, passant de 2 à 4 heures par semaine.
  • Parallèlement le temps de lecture hebdomadaire est resté stable à 3 heures,
  • La télévision reste le 1er média,
  • On passe encore 3 fois plus de temps devant la TV que sur Internet.
  • Pour comparaison, les Américains passent eux en moyenne 14 heures par semaine sur Internet, soit autant que devant la TV, et comme en Europe, 3 heures à lire la presse.

Le Monde note que « la connexion à haut débit accélère cette tendance« . C’est en effet la France qui affiche le plus fort taux, avec 5 heures en ligne par semaine. Sur les 27,3 millions d’internautes français, selon Médiamétrie, 18,6 millions se sont connectés en haut débit en juillet 2006. L’Allemagne est en revanche à l’autre bout de l’échelle.

Je vois trois ou quatres réflexions se profiler derrière cette annonce, qui si elle n’est pas une nouvelle ne fait que confirmer la tendance :

  1. La remise en cause de la répartition des budgets publicitaires qui suit chaque jour le transfert des investissements en marketing et communication vers le Web.
  2. La question de la production de contenu à l’heure de la pauvreté remâchée du Web 2.0 qui ne pourra pas contenter tout le monde, même s’il y a un modèle (comme le disait Franck Poisson, la nullité d’une majorité des contenus TV en est la preuve). Et donc derrière celà la rémunération des auteurs, la joute blogueurs/journalistes et l’internaute producteur de contenus professionnalisé.
  3. Le volet financier (bourse, rachat-fusion) des géants des médias traditionnels et des média Internet : acquisitions, saine concurrence, nouveaux modèles, Bulle 2.0 ?..
  4. Le modèle payant. La possibilité de modèles économiques sur le Web non plus basés sur la seule publicité mais sur l’évolution des mentalités vers la prise de conscience que tout n’est pas gratuit sur Internet et que de vrais services peuvent avoir un prix. Inéluctable pendant du modèle publicitaire, ce ne sera autrement que progressivement, avec des acteurs réalistes remplaçant les mastodontes ineptes qui voulaient vous faire télécharger des CD à 10€ (de quasi-marge), des services riches et des politiques de prix étudiés.

Bubbles, My Bubbles!

Google Youtube!Rumeur selon laquelle Google serait en négociations avancées pour le rachat de YouTube. Bon.

MàJ du 11/10 : rachat effectif dès le lendemain, cet article n’a pas été retouché, seuls certains passages ont été passés en gras…

Web-search giant Google is in talks to acquire YouTube for roughly $1.6 billion, a person familiar with the matter says. An acquisition of the closely held company would catapult Google to the lead spot in online video at a moment when consumers are rapidly increasing the amount of time they spend viewing video clips online, and Internet video advertising is booming.

Si pour l’instant ça n’est que de la Science-Fiction, il est évident qu’une telle acquisition si elle avait lieu nous pousserait d’un coup dans le tremplin de la spéculation financière. Outre l’effet d’annonce qui peut avoir plusieurs origines en terme d’intelligence économique, le vrai danger on le sait à la table du Web dit-2.0 ne réside pas dans la montée des start-up sans modèle du Web sauce 2005-2006 mais bien dans le fait que les marchés s’engouffrent durablement dans les prédications délirantes d’un nombre critique d’analystes financiers.

Google-YouTube Would « Make Sense »

Si les analystes peuvent émettre des réserves sur le prix d’achat et l’ouverture attendue des hostilités avec les ayants-droit, certains jugent qu’une telle opération complèterait le modèle économique du géant tout en renforçant bien-sûr sa position stratégique (voir cet article).

J’ajouterai même que les fameux coûts collossaux d’infrastructure de YouTube pointés du doigt par ceux qui prédisaient hier sa mort pourraient bénéficier d’une réelle synergie grâce aux capacités de Google en la matière.

Il n’en demeure pas moins que si l’opération se fait, dans cette fourchette de prix, alors je relève de 800% mon estimation selon laquelle nous sommes dans un phénomène de bulle, Google y apportant d’un coup un gros volume d’air propre à faire la locomotive des marchés. A l’heure où le secteur immobilier est à la baisse aux USA, avec tout un pan du Web (1.0) présentant une activité rentable et très saine – je pense au e-commerce en général – tous les ingrédients sont rassemblés pour exciter les investisseurs avec des têtes d’affiche et des guest stars sympas.

Bon allez disons que ça se fait :

Google a certainement des tas de contacts sur la question des droits d’auteurs 😉 et au niveau de l’infogérance je l’ai dit les synergies seraient je pense très fortes. Il dispose des fonds. Comme je ne pense pas qu’on vive sérieusement de la mise en captivité des seuls ados américains (utilisateurs des services de réseaux sociaux et outils de partage en général), en attendant qu’ils grandissent Google passe des accords équilibrés avec les éditeurs majeurs et un large panel de fournisseurs de contenus pour s’engager bien armé dans la voix du Web multimédia de demain matin (voire tout à l’heure).

Pour Google, tout ira bien. Il a passé la bulle. Au pire il perdra parfois un peu de son immense fortune.

Informaticiens, informaticiennes, chers amis, anticipons dès maintenant l’éclatement de la bulle ou des bullettes à venir dans les 12 ou 18 prochains mois..

Cotation du titre Google (GOOG)

Bulle Du Web Dit-2.0 ? Merci Emmanuel Parody.

Emmanuel Parody nous offre un article de qualité et, comparé aux brouillards partisans diffusés par bon nombre de blogueurs, un regard posé sur les prochaines les bullettes du Web dit-2.0.

Bulle Internet ver. 2.0Bulle 2.0: elle n’est pas ronde et pourtant elle tourne
« Bulle ou pas bulle, le débat fait rage avec en ligne de mire les millions des levées de fonds. Pourquoi la bulle 2.0 existe bel et bien mais ne peut être comparée à sa version précédente. »

Morceaux choisis :

  • Il est trés tentant de parler de “bulle” puisque les revenus ne sont qu’anticipés.
  • L’autre problème provient de l’absence de données fiables sur la réalité de la monétisation.
  • La presse traite la question sous forme d’opinion où en interrogeant les acteurs mêmes du Web 2.0, lesquels ont un intérêt financier direct à soutenir le buzz pour justifier la valeur de leurs propres activités.
  • (…) la vente de YouTube validerait aux yeux du marché la survalorisation les services à la web 2.0 et provoquerait une nouvelle ruée vers les valeurs internet par simple ricochet. Lequel provoquerait la flambée en bourse des sociétés acheteuses cotées permettant un retour sur investissement par spéculation, c’est à dire ni plus ni moins que le scénario de la bulle 1.0 de 2001.

Les bubulles peuvent exploser ou s’affaisser sur elle-même, les dangers d’une aspiration spéculative n’en sont pas moins présents