Les meilleurs articles My DataNews 2006

0 commentaires
En cette période de fin d'année, et après 4 mois d'existence, My DataNews revient sur les 10 articles qui ont été le plus appréciés de ses lecteurs.

Bonnes fêtes de fin d'année, et bonne lecture !


1.
Du Web 2.0 au Web 3.0
2.
Inde, nouvel eldorado de la high-tech
3.
Réussir un grand projet informatique, mission impossible ?
4.
L'apport du Master Data Management (MDM)
5.
Corée du Sud : nouveau champion de la technologie
6.
Sondage : perception du Web 2.0
7.
Le point sur la fonction Data Management (gestion des données)
8.
Qualité des données : un enjeu stratégique
9.
Identifier les sources d'influence dans la blogosphère
10.
Le point sur la galaxie Google

Top 10 des recherches Google 2006

0 commentaires
Fin d'année oblige, l'heure est aux bilans et autres palmarès divers et variés.

Google ne déroge pas à la règle, et nous connaissons désormais le Top 10 des mots les plus recherchés sur Google au cours de l'année 2006 (sur Google.com d'une part, Google News d'autre part).
Euh, pour info,
est un site californien de "social networking" du même type que Youtube ou Myspace, et qui apparemment rencontre un vif succès outre atlantique.

Très sincèrement, je ne connaissais pas. Qui sait, Bebo est peut-être la prochaine cible de Google ?

Félicitations !!

1 commentaires


Félicitations, car vous (oui, vous) êtes la personne de l'année de la revue Time.

Merci à Marc Snyder pour l'info.

Du Web 2.0 au Web 3.0 : réactions sur AGORAVOX

1 commentaires
Un grand nombre de réactions suite à mon article "Du Web 2.0 au Web 3.0" publié désormais sur :



L'article est également disponible sur :



Et vous, qu'en pensez-vous ?

Le boom des blogs à son apogée ?

1 commentaires
Selon le très célèbre cabinet Gartner Group, la croissance des blogs atteindrait son niveau maximal au premier semestre 2007.
L'étude se base sur le niveau de croissance des blogs, et la durée de vie moyenne d'un blogueur. Nombreux seraient les blogueurs qui se lassent et renoncent au delà d'une certaine période.
Explications via Le Monde technologies.

Plein les yeux !

0 commentaires
Précipitez-vous sur ces photos vraiment extraordinaires.
Bon, il y a certainement un travail de retouche, mais le résultat est impressionnant.

Via 2803. Merci à Henri Labarre pour l'info.

Du Web 2.0 au Web 3.0

7 commentaires

Cliquer sur l'image pour l'agrandir

Comme les résultats du sondage My DataNews l’indiquent, la compréhension de ce que recouvre le Web 2.0 est plutôt mitigée. A tel point qu’un grand nombre de blogueurs sondés ne savent pas ce que c’est, tandis que d’autres n’y voient qu’un phénomène de mode.

Malgré ce flou, on commence déjà à parler du Web 3.0, la prochaine génération d’Internet, qui apporterait de nouvelles possibilités et davantage de services. La conférence
LE WEB 3 organisée par Loïc témoigne de ce phénomène.

Souhaitant apporter un éclairage sur cette récente tendance, j’ai tenté d’expliquer de façon synthétique les apports successifs des différentes générations du Web par la cartographie ci-dessus. Cette analyse n’est vraisemblablement pas exhaustive, et très certainement incomplète, mais elle a pour vocation de fixer un certain nombre de repères essentiels pour comprendre les étapes majeures de l’évolution Internet. Elle apporte également une vision, la mienne, de ce que sera le WEB dans quelques années.

J’ai retenu 5 axes : la technologie, le contenu, le commerce, le pouvoir et l’influence, la dimension sociale.

- Technologie : LA véritable source de progrès, sans laquelle rien n’est possible
La figure présente quelques innovations majeures, allant des premières pages HTML, au WEB sémantique, en passant par le XML, les flux RSS, et la technologie
AJAX.
Non, il ne s’agit pas d’une grande lessive (!), mais bien d’évolutions majeures, apportant à chaque étape des possibilités nouvelles. Le WEB 3 devrait donc être synonyme de Web Sémantique, permettant par exemple d’obtenir une réponse cohérente et précise, à une question ciblée. Cela devrait être possible en associant au contenu une couche de description, c’est à dire en utilisant des informations sur les informations (les meta-données). Pour en savoir plus, il est intéressant de lire les posts suivants :
Web 3.0 : données ou sémantique chez Affordance, FOAF, la première brique du Web sémantique ? sur InternetActu, ou encore les différents articles du site Planète Web Sémantique.

- Contenu : grâce aux progrès de la technologie, le contenu s’améliore
A la fin des années 1990, le contenu était fourni par des sites internet présentant des pages HTML. La seconde génération Internet (Web 2.0) a enrichi ce modèle par des documents multimédias connectés entre eux. Moins « texte » et davantage « vidéo » et « son », le nouveau Web franchit ainsi une nouvelle étape. En même temps, les échanges et le partage se développent.
La révolution attendue du Web 3.0 consiste en une plus grande intégration des sources d’information, avec des réponses à nos requêtes plus intelligentes, plus pertinentes, et plus proches de l’humain. Bref, l’ère du Web 3 sera marquée par la déduction cognitive.

- Commerce : vers une intégration multi-acteurs et multimédia
Le Web 1 a créé véritablement une révolution dans le commerce, d’une part par l’arrivée de marchands Web tels que Amazon, d’autre part grâce au développement sur Internet du commerce traditionnel (FNAC, SNCF, etc.).
Depuis quelques années, on s’oriente peu à peu vers une plus grande intégration des différents acteurs, qui proposent des services connectés, et multimédia. Le récent post
Vers un Web 3.0 ? de Fred Cavazza explique remarquablement cette évolution, au travers d’un exemple.

- Pouvoir et influence : le pouvoir et les cercles d’influence sont modifiés
Les débuts d’Internet étaient caractérisés par des sites d’information et/ou marchands, auprès desquels les internautes allaient chercher de l’information. Le pouvoir d’influence était la plupart du temps entre les mains de sites professionnels. Avec l’arrivée des outils de partage de l’information (blogs, wikis), le pouvoir est désormais rendu aux utilisateurs. A côté des journalistes professionnels, des individus blogueurs délivrent désormais de l’information, souvent appréciée pour son authenticité et son style direct. Cette tendance devrait s’accentuer avec le Web 3.

- Dimension sociale : vers une participation élargie des individus
Au-delà du pouvoir et de l’influence, il est intéressant de noter que les individus participent de plus en plus à la vie publique, notamment via les blogs. Nous sommes passés d’une étape de publication d’informations (grâce aux pages perso) à une phase d’échange.
Le Web 3 renforcera à coup sûr le phénomène collaboratif, où le contenu comptera davantage que le statut.

Des images étonnantes sur Google Sightseeing

2 commentaires
Grâce à Google Maps, il est possible de parcourir la Terre vue du ciel. Deux frères écossais ont eu l'idée de proposer sur leur blog toutes les images insolites ou drôles qu'ils repèrent chaque jour, tels l'ombre de ce cerf-volant géant en forme d'ours capturée lors du "Lincoln City Summer Kite Festival" dans l'Oregon, ou ces dynosaures du "Plänterwald leisure area" de Berlin.
Pour accéder à ces étonnants clichés, cliquer ici.

Tendances du top 100 Technorati

0 commentaires
Modern Life is rubbish publie quelques informations intéressantes issues de l'analyse des 100 premiers blogs du classement Technorati.

On y trouve des statistiques sur les logiciels de blogs utilisés, la langue, la couleur du fond, la police, etc.


2803 a réalisé une synthèse en français.

Cela vaut ce que ça vaut, mais c'est toujours intéressant !

Le point sur la fonction "Data Management" (Gestion des données)

2 commentaires
Une fonction en pleine évolution
La fonction « Data Management » (gestion des données) occupe aujourd’hui une place plutôt faible au sein des organisations, et les

(source photo : Google)
départements ou services intitulés « Data Management » (gestion des données) existent rarement en tant que tels.

Pourtant, comme décrit dans ma note "Qualité des données : un enjeu stratégique", la mauvaise qualité des données est néfaste à l'entreprise : performance, réactivité, coûts, image sont directement concernés.

Dans la plupart des organisations, la gestion des données est confiée dans le meilleur des cas à la Direction des Systèmes d’Information, ce qui est nettement insuffisant, compte tenu des enjeux. Mais cette situation a tendance à évoluer. Certaines entreprises commencent en effet à mettre en place des structures dédiées à la gestion des données plus proches des métiers.

Bien que timide, cette récente évolution est très positive, car elle met désormais davantage l’accent sur le contenu (les données clients, produits, marchés, fournisseurs) plutôt que sur un contenant technique (la base de données). C’est certainement dans le domaine du marketing que la fonction prend toute sa dimension, car la connaissance des clients et des comportements offre un avantage concurrentiel évident.

Le Data Manager (Manager de l'information et des données), véritable chef d'orchestre
La fonction au quotidien comporte les tâches suivantes :
- animation, organisation et amélioration des procédures de gestion des données ;
- analyse de la qualité des données ;
- surveillance du contenu et du respect des procédures ;

- management des actions de correction et de prévention des défaillances de qualité ;
- participation aux nouveaux projets de SI.

Pour mener à bien ces tâches, l’outil informatique est bien entendu incontournable. Les outils utilisés de façon courante sont :
- les SGBD (Systèmes de gestion de Bases de Données) permettant d’organiser et de gérer de façon structurée l’information ;

- les différents applications informatiques (ERP, Datawarehouse, applications spécifiques, etc.)
- les outils de Datamining permettant d’analyser l’information client pour anticiper son comportement et le fidéliser ;


Plus récemment, sont apparues des plateformes de :

- Master Data Management (MDM), pour gérer au sein d'un référentiel les données de base (articles, clients, fournisseurs, employés) ;
- gestion de la qualité des données permettant d'une part d'explorer les données (contenant et contenu), d'autre part de manager les actions correctives et préventives.

Le Data Manager (gestionnaire des données) idéal serait un informaticien possédant de solides compétences en gestion, en marketing et en statistiques. Ce profil étant pratiquement introuvable, le Data Manager est souvent un spécialiste des bases de données qui s’est formé à la gestion et au marketing, ou bien un spécialiste métier « à l’aise » avec l’outil informatique. Les compétences pointues en statistiques restent un métier à part entière.

Les qualités et compétences requises pour être un bon « data manager » sont curiosité, compréhension des enjeux de l’entreprise, vision globale du business, rigueur, maîtrise des SGBD, et bien sûr, excellentes capacités de communication.


Avec la multiplication des applications informatiques, et la prise de conscience de l’importance du capital « données », la fonction Data Management (gestion des données) est promise à un bel avenir.


A lire : "Data Management : qualité des données et compétitivité" (Editions Hermes Science / Lavoisier)

Chine : panorama du marché internet

0 commentaires

L'Atelier, le centre de veille technologique de BNP Paribas, vient d'effectuer une mission en Chine, et a rencontré les spécialistes et experts de l’Internet.

A cette occasion, l'Atelier publie un premier dossier passsionnant sur la place d'internet dans la société chinoise. Le dossier intitulé "Chine virtuelle, Chine réelle" comprend les articles suivants :
- Internaute chinois, qui es tu ?
-
Où sont passés Google, eBay, Yahoo et Amazon en Chine ?
-
Le Web 2.0 à la chinoise
-
Quid du C2C : “Copy to China”… ?

Bravo pour ce super dossier. Et vivement que les suivants soient publiés !

Le phénomène des blogs en France

0 commentaires
Les études qui se succèdent montrent que plus qu'ailleurs, les blogs se sont imposés en France. Comme le rapporte Le Monde Technologies dans son article "Les français sont blogueurs", le patron de Google Europe, Nikesh Arora, a déclaré jeudi dernier que "la France est un pays où les blogs sont devenus un phénomène".

Par ailleurs, une étude très intéressante que j'ai trouvée chez
Loïc, menée par IPSOS et intitulée "Quel est le pouvoir économique des Blogs en Europe ? " montre entre autres, que 6 internautes européens sur 10 ont entendu parler des blogs, 9 sur 10 en France.

Enfin, à l'approche des élections présidentielles, il est intéressant de constater que les blogs pourraient avoir une influence certaine sur le choix des français, qui préfèrent désormais l'info authentique aux médias traditionnels jugés trop "formatés".
Je vous recommande à ce propos
iPol "le magazine de l'autre campagne, celle des blogs et d'Internet. Celle qu'on ne voit pas à la télé", qui vient de lancer sa vidéo n° 1.

Classement des éditeurs de logiciels en Europe

0 commentaires
L'Association française des éditeurs de logiciels (Afdel) et Pierre Audoin Consultants viennent de publier l'excellent classement intégral des éditeurs de logiciels (via Loïc).

Le magazine l'Expansion, qui publie cette enquête, qualifie les français de "lilliputiens" face à leurs homologues américains.
Il est vrai que les différents tableaux mettent en évidence la place prépondérante des éditeurs américains (Microsoft, IBM, Oracle). La comparason France/US n'est cependant pas équilibrée du fait du nombre d'habitants, donc de forces vives de création.

Par ailleurs, l'étude ne tient pas compte des différents domaines d'application des logiciels, et les tableaux mélangent les genres (ERP, CAO, Bases de données, etc.). Si l'on en tenait compte, on pourrait mesurer la place honorable de l'Europe, notamment de :

- Dassault Systèmes (France) : n°1 mondial des logiciels de CAO Industrielle
- SAP (Allemagne) : n°1 mondial des ERP (progiciels de gestion intégrés)
- Business Objects (France) : n° 1 mondial du décisionnel (ou Business Intelligence)
- Lectra (France) : n°1 mondial dans le domaine CAO Textile

Bref, oui, les américains dominent globalement, mais l'Europe n'est pas en reste pour ce qui est des logiciels qui contribuent à l'excellence du management des entreprises (ERP, CAO, BI).

Quelques retours du Web 2.0 Summit

2 commentaires
Le Web 2.0 Summit, c'est la conférence centrée sur le présent et le futur du Web, organisée par O'Reilly et qui s'est déroulée du 7 au 9 novembre à San Francisco.
Je n'ai hélas pas participé, mais voici quelques éléments permettant de se faire une idée de l'événement :

- le programme ;
- les intervenants ;
- le compte-rendu de
Pierre Chappaz ;
- le compte-rendu de Isabelle Boucq (01-Net) ;
- les vidéos ;
- Lire aussi les
Les 13 Startups du Web 2.0 Summit, d'Ouriel (TechCrunch).

Ce type de sommets me semble fort intéressant, et très certainement utile aux acteurs du Web, mais l'événement n'est-il pas surdimensionné par rapport à la réalité ? N'est-on pas en train de revivre les excès de la période 1999-2000 ?

Je m'interroge, même s'il est vrai qu'internet connaît un certain nombre d'innovations intéressantes. Notons cependant que ces innovations se font de façon continue depuis plusieurs années, et ce que l'on appelle le Web 2 (et bientôt le Web 3) constituent à mon sens des palliers fictifs. Lire à ce propos les résultats de mon sondage sur la perception du Web 2.0.

Transformer une page Web en . pdf

1 commentaires


Grâce à 9 Interactive, vous pouvez désormais transformer chaque url web en fichier pdf.
C’est facile et utile, car cela permet de stocker, communiquer ou imprimer rapidement des pages WEB.

Pour accéder à ce service
cliquer ici.

Merci à Henri Labarre de l'info (Blog
http://www.2803.com).

Le point sur la galaxie Google

1 commentaires

(source : Le Journal du Net)

Depuis 1999, Google n'a eu cesse de se développer à un rythme impressionnant, avec plus de 80 services créés et près de 20 sociétés rachetées, dont YouTube qui a fait couler beaucoup d'encre.

A l'occasion des 8 ans d'existance de Google,
Le Journal du Net dresse un panorama des principaux services proposés par la société.



En savoir davantage :
- Mieux connaître les principaux dirigeants
- Lire aussi la note "Les intemporels de Google" sur le blog Adscriptor de Jean-Marie Le Ray.


A lire :
- La révolution Google de John Battelle, Sébastien Blondeel, Jean-Marie Thomas, et Dov Rueff
- Une révolution du management : Le modèle Google de B Girard
- Le monde selon Google de Balula, Langlade, Louis, Torloting, Tournier Cazals

Partager gratuitement des vidéos depuis son mobile

0 commentaires





Moblr jeune start-up française vient de lancer un système de partage de vidéos sur téléphone mobile.
via Le Monde Technologies.

Ca y est, moi aussi j'ai ma cassette...

0 commentaires


... et mon 45 tours !



Vous voulez aussi votre cassette ? Allez sur Cassette Generator.
Merci à Jacques Froissant pour l'info.

Identifier les sources d'influence dans la blogosphère

0 commentaires
La montée en puissance du média numérique, avec notamment la multiplication des blogs, engendre une modification profonde des circuits d’information. Toute information peut désormais être facilement diffusée puis relayée en quelques minutes aux quatre coins de la planète.

La conséquence pour les entreprises est que les messages véhiculés, positifs comme négatifs, deviennent difficiles à maîtriser. S’il est relativement aisé de connaître ce qui se dit de ses marques ou de ses produits, il n’en est pas de même pour identifier clairement les véritables sources d’influence, ou les « faiseurs » de tendance. Or la connaissance de ces sources devient évidemment cruciale, pour s’adapter rapidement, et modifier dynamiquement sa stratégie.

Les choses sont en train de bouger, et un certain nombre de sociétés spécialisées proposent dès à présent des outils permettant de surveiller, modéliser et mesurer en temps réel les zones d’influence de la blogosphère, sur tel sujet ou tel produit. Basés sur des algorithmes puissants d’analyse (relations entre messages, qui est connecté avec qui, qui génère et qui transmet, etc.. ), ces outils constituent une arme redoutable pour intervenir très en amont, et améliorer son image, ses produits, sa relation avec ses clients.

Le professionnel des medias et spécialiste du Marketing Jerry Bowles présente sur son blog
Enterprise Web 2.0 l’un de ces nouveaux outils : BuzzLogic.

Par rapport aux outils et méthodes traditionnels, BuzzLogic fournit des analyses en temps (quasi) réel, ce qui constitue la véritable innovation. Innovation de taille dans un monde où tout va très vite, et où la réactivité fait de plus enplus la différence.

A noter que d’autres fournisseurs sont présents sur le marché comme Nielsen BuzzMetrics, ou encore Cymfony. Et il y en a d'autres.

Parions que ce type d'outils remportera un vif succès très prochainement. Bien entendu, et comme toujours, la technologie seule ne fera pas de miracles, et c'est surtout son utilisation "intelligente" qui sera la clef du succès.

Web, la révolution communautaire

0 commentaires
Interview très intéressante du sociologue Jean-Claude Burgelman, par Le Monde.fr, qui analyse l'évolution du Web et précise en quoi il s'agit d'une révolution communautaire.

Pour accéder à l'article, cliquer ici.

Lire également ma note récente : Internet et Société : ce qui change vraiment.

Cartographie de l'identité numérique

0 commentaires



Voici une très belle cartographie de l'identité numérique, où sont positionnés les grands acteurs du web actuel par catégorie (expression, profession, réputation, etc.).

Bravo pour cette analyse pertinente de Fred Cavazza, publiée sur Flickr.

Chiffres de l'emploi informatique

0 commentaires
Chiffres de l'emploi informatique publiés par le MUNCI, qui est une association indépendante de professionnels de l'informatique.

MySpace et l'orthographe

3 commentaires

Bon, je ne vais pas me faire que des amis, et au risque de paraître rigide, voici le texte que l'on trouve sur MySpace lorsque l'on crée son profil ("la seconde étape pour créé ...").

Un peu dommage pour un site, vraiment sympa par ailleurs, qui comporte parmi son audience des centaines de milliers d'ados.

Perception du Web 2.0 : résultats du sondage My DataNews

0 commentaires
Le Web 2.0 fait couler beaucoup d’encre, et il n’est pas toujours évident d’en cerner les contours. J’ai cherché à connaître la perception des lecteurs et lectrices de My DataNews par un sondage effectué du 23 septembre au 16 octobre. En voici les résultats.

Remarquons d’abord que 19 % des lecteurs ne savent pas ce qu’est le Web 2.0. Il est vrai que le terme est souvent utilisé, mais rarement expliqué. Pour mieux cerner ce qui se cache derrière le concept web2.0, il peut être intéressant de lire l’article Qu'est ce que le Web 2.0? (merci Th.b pour l'info !!) et celui de Martin Lessard sur les 6 cultures d’internet.

Vous êtes également 19 % à considérer que le Web 2.0 correspond à tout et n’importe quoi, traduisant là encore le fait que le concept n’est vraiment pas clair. Un effort doit être fait dans ce sens, notamment en prévision de l’arrivée du Web 3.0 dont on commence à entendre parler ici et là !

Plus positifs, 33 % d’entre vous considérez que le Web2.0 représente l'avenir de l'Internet. Pour vous, les nouveaux services collaboratifs, permettant de diffuser et partager l’information (blogs, vidéo, musique, etc.) préfigurent la société de demain.

Enfin, 29 % d’entre vous pensez que le Web 2.0 est un effet de mode. Il est vrai que beaucoup de bruit (trop ?) est généré autour de la nouvelle génération d'internet. C’est ainsi que Google référence aujourd’hui près de 120 millions d’occurrences du terme "Web 2.0".

Blogs et éducation

0 commentaires

J'ai adoré la super interview de Mario Asselin (ancien proviseur précurseur sur les blogs) par Loïc Le Meur sur l'utilisation des blogs dans l'éducation.

Si vous êtes prof ou proviseur, allez faire un tour chez Mario !




(lien, source et vidéo chez Loic)

Le top 10 des blogues français

0 commentaires
Pour dévouvrir le Top 10 des blogs français, via Michel Leblanc.

(Source: Micropersuasion).

Pour y voir plus clair sur le Web 2.0

1 commentaires
Belle initiative du journal du net qui publie le dico illustré du Web 2.0.

Pour tout savoir sur :
- Crowdsourcing et wiki
- Folksonomy et tags
- Social networking
- Syndication, RSS, XML et Atom
- Blogosphère et blogrolls
- Podcasts et vidéocasts
- Ajax
- Mashup et API
- Long tail

J'ai été informé via Affordance.info

L’apport du Master Data Management (MDM)

0 commentaires
Les données au cœur des applications métier.

Bien que le concept de référentiel d’objets métiers ne soit pas nouveau, un nombre croissant d’acteurs proposent des solutions de «
Master Data Management » (MDM).



De quoi s’agit-il ?

Les solutions MDM permettent de gérer au sein d’un référentiel un certain nombre d’objets métiers appelés données de base (principalement articles / produits, clients, fournisseurs, employés) pour les diffuser aux différentes applications de l’entreprise.

Grâce au référentiel commun, les utilisateurs peuvent manipuler la même version de la réalité, ce qui facilite évidemment les échanges entre applications, et améliore la qualité des flux métiers sous-jacents. Donc le business !

Quels sont les grands principes ?

- une gestion centralisée :

La mise en place d’un référentiel permet de mieux maîtriser la gestion des données et de gagner en efficacité. Cela est d’autant plus vrai, que les solutions MDM proposées aujourd’hui possèdent pour la plupart des outils d’analyse du contenu, permettant de mettre en relief les défauts de qualité, tels que des doublons.

- des données synchronisées :

Les échanges se font en temps réel, avec possibilité de mettre en œuvre différents scénarios. Il est ainsi possible de maintenir les données de base directement dans le référentiel pour les diffuser aux applications. Mais le référentiel peut aussi jouer le rôle de collecteur de données depuis une application maître, et de distributeur aux autres applications, avec au passage, des contrôles de cohérence et des alertes que l’on peut paramétrer.

- un workflow intégré :

Un workflow est le plus souvent associé au référentiel, pour gérer par exemple les différentes étapes de la création d’un produit, et alerter au bon moment les acteurs devant mettre à jour la fiche produit.

Pourquoi constate t-on un regain d’intérêt pour ce type de solutions ?

La raison principale tient au volume des données qui va en augmentant, et à la complexité du paysage applicatif au sein des grandes entreprises. Dans ces conditions, il est de plus en plus difficile d’assurer la cohérence des données entre applications.

La montée en puissance des architectures orientées services, c'est-à-dire du SOA (Service Oriented Architecture) renforce le besoin de gérer les données au sein d’un référentiel. En effet, le modèle SOA part du principe que l’on n’évitera pas la multitude d’applications, car il est finalement logique de vouloir se doter de la meilleure solution pour chaque fonction de l’entreprise. L’idée qu’un énorme ERP puisse gérer touts les besoins de l’entreprise est donc dépassée.

La tendance aujourd’hui est plutôt d’intégrer les processus et les applications métier clés en adoptant une architecture SOA construite sur une infrastructure relativement souple, avec des services réutilisables fondés sur XML, et des protocoles standards de services web. Pour que cela fonctionne, il faut évidemment ne pas oublier les données !

Quels sont les grands acteurs du MDM ?

Globalement, on retrouve les grands éditeurs d’ERP tels que SAP (solution Netweaver MDM) qui est un pionnier du MDM, ou Oracle (solution Active Data Hub).

Suite au rachat des entreprises spécialisées Trigo mi-2004 et DWL mi-2005, IBM est très bien positionné sur le marché avec les produits WPC (gestion des produits) et WCC (gestion des clients) intégrés à son offre Websphere.

Les acteurs de la Business Intelligence développent également des offres MDM, notamment Hyperion, Teradata ou encore Business Objects (avec son offre EIM).

Enfin une multitude de « pure players » tels que Sunopsis ou FullTilt Solutions apportent des solutions intéressantes. Et il y en a bien d’autres.

En conclusion, retenons que le MDM devient incontournable pour tirer profit du système d'information, et servir les métiers de l'entreprise. En gérant de façon unique, juste, et partagée les données produits, clients, fournisseurs, le fonctionnement opérationnel et managérial de l'entreprise est évidemment optimisé. Notons enfin que les architectures SOA ne pourront bien fonctionner que si l'on met en place un référentiel, véritable coeur du SI.

Suivre les cours de Berkeley...chez soi !

0 commentaires

Vous rêvez de suivre des cours de la prestigieuse Université de Berkeley, en Californie ?
Rien de plus simple : Berkeley dispose désormais d'une section sur
Google Vidéo où sont dispensés plus de 200 cours, dont certains sur les systèmes d'information.

Rêvons un peu...

0 commentaires
Mais non, ce n'est pas un rêve, c'est tout simplement un extrait du superbe panorama des plus belles photos des régions de la Terre, réunies dans le earth album.
Il suffit de cliquer sur une région du globe, pour afficher les photos associées.

Internet et société : ce qui change vraiment

1 commentaires
Grâce aux nouvelles possibilités d’Internet, la société est en train de changer profondément.

L’Internet de première génération
Il y a une dizaine d’années, la généralisation d’Internet dans les entreprises a bouleversé le monde du travail. Grâce au net, les entreprises ont pu s’adresser à leurs clients et partenaires d’une manière différente, en communiquant par messagerie électronique, en présentant leurs activités sur des sites, en faisant du commerce électronique, etc. Malgré l’explosion de la bulle financière en mars 2000, une tendance de fond est née. L’apport d’Internet pour les entreprises fut clairement d'améliorer la communication et d’optimiser certains processus.

Au delà du monde de l’entreprise, Internet a permis aux individus d’accéder à des contenus divers, échanger par e-mail, participer à des forums, faire partie de communautés. La société toute entière s’est mise progressivement à utiliser Internet, satisfaisant ainsi le besoin d’accéder à l’information rapidement, en quelques clics. La soif de connaissance des individus a été ainsi grandement comblée.



Internet aujourd’hui
Aujourd’hui, la nouvelle génération du Web se profile, apportant davantage de services aux utilisateurs. Je me garderai bien de parler ici du WEB 2.0 dont la définition des contours fait l’objet de débats (à ce propos, vous pouvez encore participer à mon sondage, il n’est pas trop tard !). Mais indépendamment des effets de mode, qu’est ce qui change réellement ?

Je crois que ce qui change d’abord, et de façon concrète, c’est la simplicité des outils mis à la disposition du public. Il y a seulement 8 ans, créer un site WEB était réservé à des professionnels ou des particuliers éclairés. Aujourd’hui, créer un blog avec un graphisme attrayant ne prend que quelques minutes ! Autrement dit, la barrière de la complexité technologique a sauté (mais soyons conscients que la gestion d’un site pro demande une grande technicité, et des talents en informatique encore trop rares).

Du coup, les individus se mettent à participer et deviennent des acteurs, alors qu’ils n’étaient jusqu’alors que des spectateurs. Ce besoin de participer explose : plus de 50 millions de blogs sont recensés dans le monde, et les services gratuits permettant de partager ses vidéos ou ses créations musicales du type YouTube ou MySpace ne cessent d’attirer de nouveaux membres, … Le phénomène Wiki, notamment avec la célèbre encyclopédie libre Wikipedia, pouvant être enrichie par chacun d'entre nous, est particulièrement révélateur de l'essor de ce mouvement collectif et participatif.

Il est amusant de constater que subitement, tout le monde se met à écrire, à publier des textes, à réaliser des films, de la musique, avec le sentiment d’être de « vrais » écrivains ou artistes !
Contrairement à la première vague Internet qui s’est d’abord répandue en entreprise, cette nouvelle vague est avant tout visible en dehors du monde du travail, même si certaines firmes commencent à adopter timidement les nouvelles possibilités, en créant par exemple des blogs d’entreprise.

Au fond, je crois que l’explosion à laquelle nous assistons ne correspond pas à quelque chose de nouveau ; elle permet simplement de satisfaire un « vieux » besoin de libre expression. Il n’est désormais plus nécessaire d’être journaliste ou auteur pour dire à la planète ce que l’on a envie de dire, ou de faire part de ses créations. Je pense que tout cela est très positif, car finalement les bonnes idées qui surgissent ici et là sont rapidement détectées et diffusées. Au final, je m’en réjouis, car cela fait progresser la société.


Et demain ?
Ce n’est pas fini. Je crois fermement que le mouvement collaboratif va se renforcer, et que nous entamons l’ère du partage et de la diffusion de l’information. Cela n’est absolument pas une mode, même si un certain nombre de consultants ou autres gourous y voient avant tout l’occasion de faire du business.

Soulignons toutefois que tout cela se déroule dans nos pays riches. Nous devons en être conscients. Grâce aux nouvelles technos, nous sommes en train de satisfaire nos besoins individuels, tout en améliorant collectivement nos sociétés modernes. Le risque de creuser davantage l’écart avec le quart monde est certain. Le vrai challenge sera donc d’inventer un modèle pour entraîner dans le mouvement les pays les plus défavorisés, tels que l’Afrique. C'est compliqué, car avant de penser nouvelles technologies, des réponses aux besoins essentiels telles que la lutte contre la faim, ou la santé doivent d'abord être apportées.

Je pense de plus en plus qu’il ne faut pas s’attendre à ce que ce mouvement vienne uniquement des politiques. Dans l’immédiat, je crois plutôt au travail des associations, et aux initiatives privées, du même type que celles menées récemment par Richard Branson ou Bill Clinton pour l'environnement, même si l’on qualifie parfois ces actions de « coup de pub ».

En conclusion, nous progressons, mais la route est encore longue et tout reste à inventer.


Inde, nouvel eldorado de la high-tech

3 commentaires
Comme on peut le lire régulièrement dans la presse, l’Inde est devenue en quelques années un pays incontournable pour tous les acteurs de la haute technologie, notamment les services informatiques. Ainsi, les ténors du secteur (IBM, Capgemini, Accenture, …) investissent massivement dans des filiales indiennes, qui délivrent à un coût moindre un service de qualité. Pas une journée ne se passe sans que l’on parle d’ « offshore » dans les milieux de l’informatique.

L’offshore, kézako ?
L'offshore, c'est l'opération de sous-traitance de tout ou partie d'un projet ou d’un service informatique, en dehors de son pays. Il s'agit principalement d'une délocalisation vers un pays en développement ou une zone où les coûts sont significativement inférieurs à ceux pratiqués sur le marché domestique.

Les chiffres parlent d’eux mêmes : 43000 employés pour IBM, 19000 chez Accenture, 6000 chez Capgemini (10000 prévus fin 2007) travaillent désormais dans le pays aux mille charmes. Et le mouvement ne cesse de s’accélérer.

Quelles sont les raisons de ce mouvement ?
Plusieurs facteurs expliquent ces chiffres :

- le coût : un ingénieur indien coûte actuellement trois fois moins cher que son homologue français
- un vivier de compétences : l’Inde dispose d’une main d’œuvre hautement qualifiée. Le nombre de diplômés indiens anglophones de haut niveau par an est de 250 000 (dont 75000 informaticiens), à rapprocher des 20 000 ingénieurs toutes disciplines confondues, qui sortent chaque année de nos écoles françaises.
- la capacité à délivrer rapidement : le nombre élevé des ressources indiennes permet de satisfaire l’exigence croissante de la part de nombreuses entreprises, d’industrialiser les processus de développement des applications informatiques, et de diminuer les délais de livraison.

Avec de tels tarifs et une telle force de frappe, le secteur IT en Inde a actuellement le vent en poupe et les SSII locales en profitent largement, à l’instar des principales firmes indiennes du secteur : Wipro, Tata Consulting ou encore Infosys Technologies. Globalement, les revenus de l'industrie des services et logiciels informatiques y ont atteint 29,6 milliards de dollars en 2005, et le nombre d'employés devrait avoisiner 900 000 personnes fin 2006.


Quelles sont les conditions de réussite d’un projet offshore ?
La délocalisation d’une partie d’un projet informatique nécessite un certain nombre de pré-requis pour bien fonctionner. Si l’on sous-traite des tâches de programmation par exemple, il faut que les spécifications correspondantes soient d’une précision et d’une clarté irréprochable.


Il y a aussi besoin de maintenir un contact permanent (téléphone, visio conférence,…) pour suivre les travaux, et de se rendre sur place de temps en temps pour maintenir une présence physique, faire le point, et recadrer le cas échéant un projet.

Enfin, il faut s’assurer côté indien que la maîtrise de la langue anglaise soit bien réelle. Ce dernier élément est crucial pour la réussite des projets offshore, et force est de reconnaître que le niveau d’anglais s’avère parfois insuffisant, à tel point que certaines sociétés de service basées en Inde cherchent à attirer des travailleurs européens, en leurs offrant des primes et en mettant en avant une qualité de vie intéressante ! Avis aux amateurs !

Quelles sont les conséquences sur l’emploi ?
Tout et son contraire est dit et écrit dans ce domaine. Selon certaines personnes, l’offshore engendrerait d’ici une dizaine d’années 3 à 4 millions d’emplois délocalisés (tous secteurs confondus). Selon d’autres, l’impact serait beaucoup plus limité. Comme toujours, nous manquons de recul et de données chiffrées. Il est toutefois clair, c’est mathématique, que le fait de sous-traiter certaines tâches à l’étranger engendre chez nous un déficit d’emplois. Mais il faut prendre en considération que le phénomène inverse se produit également, car les grands acteurs indiens multiplient les emplettes sur le Vieux Continent. Les Indiens cherchent actuellement à gagner de nouvelles références et une compréhension du marché local.

Pas si simple donc.

Aussi, tout ne peut pas être délocalisé, notamment les activités à forte valeur ajoutée telles que le conseil, qui nécessitent d’être en contact direct avec les clients.


Enfin, ll faut s’attendre à ce que le niveau de rémunération des Indiens progresse à l’avenir, avec pour conséquence, un gain financier moins important que actuellement. Il faudra alors se tourner vers d’autres pays, qui à leur tour progresseront.

D’une certaine manière, à l’échelle de la planète, l’offshore joue un rôle social et humanitaire important, au moins dans le secteur des prestations intellectuelles, puisqu’il permet à des pays globalement pauvres de progresser et de s’enrichir. Bien entendu cette idée est difficile à admettre, car la conséquence immédiate est bien une diminution du nombre d’emplois en occident, avec toutes les incertitudes que cela engendre. Mais a t-on le choix ?

Si je poursuis cette logique de progression et d’enrichissement, viendra un jour le temps où tous les pays seront plus ou moins au même coût. On assistera alors à des échanges un peu partout, avec comme seul critère de différentiation : la compétence et la qualité de service.

L’Inde, pays de contrastes


· Une personne sur six sur la planète est indienne
· En 2040, l’économie indienne devrait être au 3ème rang mondial
· On compte 18 millions de naissances chaque année
· L’analphabétisme touche 25 % des adultes et 45 % des femmes
· 400 millions de pauvres vivent avec moins de 1 euro par jour
· 70 millions de foyers reçoivent la télévision par câble ou par satellite
· 2 étudiants sur 3 partent étudier à l’étranger
· L’Inde possède 1000 écoles d’ingénieurs et 1000 facultés donnant accès à un diplôme d’informaticien
· L’agriculture représente toujours plus de 60% de la main d’œuvre
· Les services (notamment dans l’informatique) représentent 25% des emplois
· 25 millions d’Indiens vivent hors de l’Inde, dont plus de 2 millions aux Etats-Unis, avec un revenu deux fois supérieur à la moyenne américaine
· Il y a en Inde 82% d’hindous, 12% de musulmans, 1,9 % de sikhs, 1,3% de chrétiens, 0,8% de bouddhistes

A lire :
Le Défi indien, Pourquoi le XXIe siècle sera le siècle de l’Inde de Pavan K. Varma (Editions Actes Sud).

Anousheh Ansari en direct de l'espace !!

0 commentaires
Je ne peux que vous recommander le blog d'Anousheh Ansari, en direct de l'espace.
Américano-Iranienne âgée de 40 ans, ingénieur en télécommunications et auteur de brevets, Anousheh est la première femme , embarquée sur la Station spatiale internationale (ISS), à bloguer en direct de l'espace !!


On peut ainsi suivre ses impressions... et ses mésaventures (par exemple : faire sa toilette en apesanteur !!).

Pour rejoindre Anousheh,
cliquer ici !

Un téléphone ultra-solide… à 14000 $

0 commentaires
Une anecdote amusante, mais bien réelle révélée par USA Today, et relayée par Nicolas Ritoux.

WEB 2.0 : sondage exclusif My Datanews !

3 commentaires
N'attendez pas 2007 pour voter, et participez à mon sondage sur la perception du WEB 2.0 !
Pour cela, rien de plus simple, le sondage se trouve dans la colonne droite du blog. Il suffit de cliquer sur la réponse de votre choix.
Les résultats seront commentés très prochainement.
VOTEZ MAINTENANT !

Jobs en informatique : c'est reparti !

0 commentaires
Billet de Laurent Dupin (ZDNet) sur la conjoncture de l'emploi dans le secteur de l'informatique. Pour lire l'article, cliquer ici

Les meilleurs blogs repérés par Stratégies

0 commentaires
Panorama des meilleurs blogs, par le magazine Stratégies.
Pour accéder à ces pépites,
cliquer ici

Usual suspects ?

0 commentaires
J'ai beaucoup apprécié cette analyse pertinente de Jean-Pierre Corniou sur l'image des DSI et de leurs équipes dans les entreprises.

Pour accéder à l'article,
cliquer ici

Corée du Sud : nouveau champion de la technologie

1 commentaires
Il y a quelques mois, j'étais en déplacement à Incheon, la zone industrielle et portuaire de Séoul, dans le cadre d'une mission professionnelle d'implémentation du progiciel SAP R/3 pour un grand groupe chimique.
Bien que très absorbé par mon travail, j'ai été surpris par l'incroyable percée de la high tech : tous mes interlocuteurs possédaient le dernier cri de la technologie (ordinateurs, téléphones mobiles avec TV, organisateurs, etc...).
Ce goût du "dernier cri" est aussi visible à l'extérieur de l'entreprise : beaucoup de boutiques vendent les dernières nouveautés électroniques, que les jeunes Coréens s'empressent d'acquérir; et de renouveler régulièrement.
Au fond, ce qui m'a surpris, c'est le contraste entre cet appétit de la nouveauté technologique, et le retard en termes d'infrastructures et d'environnement. Les buildings poussent comme des champignons, sans aucun souci d'harmonie architecturale. Le développement rapide de l'économie semble être la priorité numéro un, au détriment de l'urbanisme.

Mais revenons à la percée de la technologie. Deux grands facteurs expliquent ce phénomène :

- une volonté politique : le gouvernement Coréen encourage la coopération entre la recherche publique, et les grands acteurs industriels (Samsung, LG, etc.). Ainsi, l'investissement dans les nano-technologies est l'une des priorités. Actuellement, 16% du produit intérieur brut (PIB) de la Corée du Sud provient des secteurs industriels de pointe et le pays investit 3% de son PIB en recherche et développement (R-D), soit 7% du budget national. Depuis 1998, l'industrie des nouvelles technologies connaît une croissance moyenne annuelle de 18,8 %. L'objectif du gouvernement est de rejoindre le top 3 mondial d'ici à 2015.

- les caractéristiques de la société Coréenne : esprit de compétition, goût pour la nouveauté technologique, absence relative de loisirs, « volonté d’imiter le voisin » sont propices à l'expansion des nouvelles technologies, et au dynamisme du marché.

La Corée sera t'elle l'un des leaders des nouvelles technologies d'ici 10 ans ?
Très certainement, mais attention à la gadgétisation à outrance, qui risque de lasser les occidentaux. Les Coréens raffolent de mulitples fonctions, même si celles-ci sont souvent inutiles et compliquent l'utilisation des produits. Inversement, un produit à la fois simple et design comme l'iPod, a fait un carton en Europe et aux Etats-Unis, mais ne marche pas du tout en Asie comme le souligne et l'explique
Nicolas Ritoux.

A suivre donc.

Des débuts d'internet au WEB 2.0

0 commentaires
Brillant article de Martin Lessard "Les 6 cultures d'Internet" qui permet de comprendre l'évolution d'internet, de ses débuts au phénomène "WEB 2.0".

Pour accéder à l'article,
cliquer ici

Réussir un grand projet informatique : mission impossible ?

0 commentaires
Vaste question, qui mérite d’être traitée car un certain nombre d’analystes estiment que "71 % des projets logiciels n'arrivent pas à terme" (CIO Magazine, 15 novembre 2005).

S’il ne faut pas noircir le tableau (car ce chiffre « choc » est en réalité plus nuancé, comme l’indique le Standish Group : Succès 29% ; Mitigés 53% ; Échec 18%), reconnaissons qu’il n’y a pas de quoi pavoiser, notamment si l’on compare ces chiffres avec ceux d’autres domaines, tels que la construction. Sauf cas particuliers, lorsqu’un chantier BTP est lancé, il débouche la plupart du temps sur un ouvrage conforme au cahier des charges et aux plans de l’architecte.

Les raisons d’échec des projets de SI sont nombreuses, mais je soulignerais avant tout celles-ci :

- imprécisions du cahier des charges ;
- mauvaise estimation de la charge ;
- inexpérience ou incompétence du chef de projet ;
- mauvaise compréhension des besoins exprimés ;
- technologie utilisée non maîtrisée.

Evidemment, lorsque ces écueils se combinent, les chances de succès s’amenuisent. Aussi, la taille du projet influence nettement le résultat : plus un projet est petit, plus il a des chances d’aboutir. C’est donc en se concentrant sur chacun des points précédents que l’on peut amener un grand projet vers le succès.

A propos de la comparaison avec le BTP, le dernier élément (maîtrise de la technologie) est bien celui qui différencie les deux mondes. Le BTP utilise en effet des techniques éprouvées depuis des siècles, tandis que l’informatique en est à ses balbutiements et repose sur des technologies qui évoluent sans cesse.

Parmi les nombreux livres qui se penchent sur la question, j’ai plus particulièrement apprécié «
L’impossible conduite du projet de SI» de Didier Quan. L’ouvrage est très clair, facile à lire, et s’appuie sur une solide expérience du management de projet. Le style est direct, pragmatique, et laisse une place importante à l’humour, ce qui est plutôt rare pour ce type d’ouvrages !

Marché des services informatiques : les chiffres clés

1 commentaires
Une enquête très complète du JDN sur le marché des services informatiques, en France et dans le monde.

Pour accéder à l'enquête
cliquer ici

Qualité des données : un enjeu stratégique

0 commentaires
Si les logiciels collent de mieux en mieux aux processus métiers de l’entreprise, le contenu est souvent négligé. Les systèmes d’information regorgent de données obsolètes, incorrectes ou incomplètes. Il est fréquent de constater qu’un même client ou un même produit soit enregistré plusieurs fois, souvent de façon différente, au sein de la même base de données. Par ailleurs, certains dirigeants se plaignent que leur système d’information délivre une quantité d’informations détaillées d’un faible intérêt et ne fournit pas les informations utiles. Comment tirer profit du système d’information si le contenu n’est pas fiable ?

Les conséquences de la non-qualité des données
Les conséquences de la faible qualité des données sont nombreuses et coûtent cher aux entreprises. Pire, l’impact peut être visible à l’extérieur, notamment en raison de la place grandissante des échanges électroniques. Les conséquences rencontrées le plus fréquemment sont les suivantes : insatisfaction des clients, non conformité des chiffres publiés, dévalorisation de l’image de l’entreprise, perturbation du fonctionnement opérationnel, erreurs de stratégie, et en conséquence de tous ces points, un coût qui peut représenter plus de 10 % du chiffre d’affaires.


Les causes de la non-qualité des données
Les causes d’anomalies portant sur les données sont variées, mais elles s’expliquent le plus souvent par une sous-estimation générale de l’enjeu des données. Les tâches d’initialisation des données, tant au démarrage d’une nouvelle application (reprise des données en masse), qu’en régime permanent (saisie manuelle au fil de l’eau) sont souvent négligées. Enfin, certains défauts de qualité trouvent aussi leur origine dans la conception des applications informatiques, et dans les défaillances logicielles (bugs).

Que faire pour améliorer la qualité des données ?
La prise de conscience des dirigeants de la relation, entre qualité des données et performance de l’entreprise, est très certainement la première source de progrès à développer. Il est intéressant de constater que la responsabilité de la qualité des données est actuellement, dans le meilleur des cas, entre les mains de la direction des systèmes d'information. Or celle-ci ne peut évidemment pas être tenue responsable de tous les problèmes de données, tout simplement parce qu’elle ne contrôle pas tout, et n’est généralement pas à la source de la création des données.
La qualité des données n’est pas qu'une problématique technique, elle touche avant tout au métier de l’entreprise.
Partant de là, la mise en place de programmes d’amélioration de la qualité de l’information et des données est l’un des vecteurs clés de progrès. Un programme doit être géré comme un projet et impliquer largement la ou les directions fonctionnelles concernées (vente, achats, production,…). Bien entendu, un tel projet ne doit être lancé que s’il y a un réel besoin et un enjeu significatif pour l’entreprise. Il est donc recommandé de bien s’assurer que les processus concernés jouent un rôle significatif dans la compétitivité de l’entreprise. Il faut aussi définir un objectif clair et réaliste et évaluer les chances d’aboutir à un résultat positif. La solution mise en œuvre dans le cadre d’un programme peut comporter des aspects techniques et/ou organisationnels.

Autre point important, il faut se doter de moyens de mesure pour évaluer la qualité des données avant et après mise en œuvre du programme. Par exemple, la mesure du taux d’erreurs au sein d’un processus métier peut être l’un de ces indicateurs.

Outre le lancement de programmes d’amélioration ponctuels, il y a aussi besoin d’instaurer de façon durable de bonnes pratiques de data management (gestion des données). Basé sur des principes clairs, privilégiant les mesures préventives et le pragmatisme, le data management permet incontestablement d’améliorer la qualité des données et de rendre l’entreprise plus performante et compétitive.

Enfin, et c’est vraisemblablement l’un des points essentiels, l’adhésion des collaborateurs à un programme d’amélioration de la qualité est indispensable, et les dirigeants doivent clairement montrer la voie. La communication dans l’entreprise autour du thème de la qualité des données, et la prise en compte de l’aspect humain constituent très certainement la clé de la réussite de ce type d’approches.

Pour en savoir plus, et obtenir des conseils pratiques : cliquer ici

Bienvenue sur My Datanews !

0 commentaires
"Guidé par ma passion du monde actuel, de la vie des entreprises, des systèmes d’information et de ses acteurs, j’ai décidé de créer ce blog"



Le blog traitera avant tout de l’actualité des systèmes d’information, et prendra du recul sur des sujets de fond auxquels sont confrontés les professionnels et décideurs des SI. Une large place sera faite aux préoccupations des acteurs (métiers, carrière, etc.)

« My DataNews » contiendra plusieurs types de contributions :
- des références à des articles ou des ouvrages ;
- des éléments de réflexion ;
- des réactions aux événements majeurs du monde des SI.

Les billets publiés seront dans l’ensemble synthétiques ; votre participation et réactions seront les bienvenues.

Bonne rentrée et bienvenue sur « My DataNews » !


 

My Data News. Copyright 2008 All Rights Reserved Revolution Two Church theme by Brian Gardner Converted into Blogger Template by Bloganol dot com