Les pirates informatiques de LulzSec annoncent leur démantèlement
Libellés : Informatique, LulzSec, Piratage, Sécurité, Web
Google atteint 1 milliard de visiteurs uniques
Libellés : audience, Facebook, Google, Microsoft, record
Pourquoi la Lune nous présente-t-elle toujours la même face ?
La Lune met autant de temps pour faire une rotation sur elle-même que pour effectuer une orbite complète autour de la Terre. En astronomie on appelle ça une rotation synchrone.
Vu du dessus, la Terre tourne sur elle même dans le sens contraire des auguilles d’une montre et la Lune orbite dans le même sens
Toutes les 60 secondes, sur Internet…
…plus de 13 000 applications iPhone sont téléchargées, plus de 370 000 minutes de conversations sont utilisées via Skype, plus de 6600 clichés sont publiés sur flickr, et 168 millions d’emails (vous avez bien lu !) sont envoyés !
Comment sait-on tout ça ? Et bien, grâce à la dernière infographie en date offerte par Shanghai Web Designers. CQFD. Notez tout de même que certains, pour ne pas dire la plupart, de ces chiffres, demeurent TRES impressionnants, sur bien des points !
The Sixth Law of Data Quality
Libellés : Data, Data Management, Qualité, Qualité des données
The First Law of Data Quality explained the importance of understanding your Data Usage, which is essential to the proper preparation required before launching your data quality initiative.
The Second Law of Data Quality explained the need for maintaining your Data Quality Inertia, which means a successful data quality initiative requires a program – and not a one-time project.
The Third Law of Data Quality explained a fundamental root case of data defects is assuming data quality is someone else’s responsibility, which is why Data Quality is Everyone’s Responsibility.
The Fourth Law of Data Quality explained that Data Quality Standards must include establishing standards for objective data quality and subjective information quality.
The Fifth Law of Data Quality explained that a solid Data Quality Foundation enables all enterprise information initiatives to deliver data-driven solutions to business problems.
The Sixth Law of Data Quality
“Data quality metrics must be aligned with business insight.”
Business-relevant metrics align data quality with business objectives and measurable outcomes.
There are many data quality metrics, which are alternatively referred to as data quality dimensions. In her great book Executing Data Quality Projects, Danette McGilvray provides a comprehensive list of data quality metrics, which include the following:
- Timeliness and Availability – A measure of the degree to which data are current and available for use as specified and in the time frame in which they are expected.
- Data Coverage – A measure of the availability and comprehensiveness of data compared to the total data universe or population of interest.
- Duplication – A measure of unwanted duplication existing within or across systems for a particular field, record, or data set.
- Presentation Quality – A measure of how information is presented to and collected from those who utilize it. Format and appearance support appropriate use of the information.
- Perception, Relevance, and Trust – A measure of the perception of and confidence in the quality of data, i.e., the importance, value, and relevance of the data to business needs.
Although there are many additional data quality metrics (as well as alternative definitions for them), perhaps the two most common data quality metrics are Completeness and Accuracy.
Completeness is generally a measure of the presence of an actual data value within a field, excluding NULL values and any non-NULL values indicating missing data (e.g., character spaces). Completeness can also be used as a measure of the absence of some of the sub-values that would make a field complete (e.g., a telephone number in the United States missing the area code). Either way, completeness is not a measure of the validity or accuracy of the values present within a field.
There is a subtle, but important, distinction between the related notions of validity and accuracy.
Validity is the correctness of a data value within a limited context such as verification by an authoritative reference. Accuracy is the correctness of a valid data value within an extensive context including other data as well as business processes.
Validity focuses on measuring the real-world alignment of data in isolation of use. Accuracy focuses on the combination of the real-world alignment of data and its fitness for the purpose of use.
A common mistake made by those advocating that data needs to be viewed as a corporate asset is measuring data quality independent of its business use and business relevance, which is why most data quality metrics do a poor job in relaying the business value of data quality. Without data quality metrics that meaningfully represent tangible business relevance, you should neither expect anyone to feel accountable for providing high quality data, nor expect anyone to view data as a corporate asset.
Therefore, every data quality metric you create must be able to answer two questions :
- How does this data quality metric relate to a specific business context?
- How does this data quality metric provide business insight?
Spotify proche d'un lancement aux Etats-Unis
Qualité de Données : DataFlux et le CXP présentent les résultats de leur étude
Libellés : Data, Data Management, DataFlux, Données, Qualité des données
Y a-t-il un pilote dans l’avion ?
L’enquête montre en premier lieu que l’attribution de la responsabilité de la gestion des données reste un sujet nébuleux pour les entreprises françaises (les données sont gérées par le service informatique pour 17% des entreprises interrogées, par les départements métier pour 17% également, le reste des interrogés n’ayant pas de vision précise de qui a la responsabilité de cette tâche). En France, une entreprise sur deux n’a pas encore implémenté de projet global de Data Management et plus alarmant encore, 13% des entreprises interrogées, comprenant des entreprises grands comptes, n’ont pas clairement établi et mis en œuvre une stratégie de gouvernance des données. En outre, 51% des organisations qui n’ont pas développé de réelle stratégie de gouvernance des données, ont révélé que leurs données étaient gérées de manière ad hoc par les utilisateurs finaux, plutôt que par des responsables données ou des data stewards.
Confiance dans la qualité des données et conséquences
Alors que 90% des répondants reconnaissent que la qualité des données est un élément critique (59%) voire très critique (30%) pour la prise de décision, seulement un tiers des entreprises admet avoir confiance dans ses données ! Développer et maintenir un niveau de confiance élevé est cependant nécessaire pour éviter les effets négatifs sur les activités d’une entreprise, tels que retards, erreurs ou manque d’allocation de ressources. Ces obstacles, directement liés à la qualité des données, peuvent également générer une augmentation des coûts (crainte évoquée par 61% des répondants), une baisse de la satisfaction clients (59%), une baisse de la satisfaction des employés (46%) ou encore un impact négatif sur les revenus de la société (42%).
Ces résultats confirment que le niveau de qualité des données d’entreprise a une influence directe sur l’efficacité des organisations.
Initiatives de Gestion de Données
Un tiers des entreprises interrogées a précisé avoir déjà implémenté un projet de qualité de données (20%) ou avoir un projet de gestion des données en cours d’implémentation. Même si ces chiffres révèlent un niveau d’adoption encourageant, il reste néanmoins 25% des entreprises françaises (et là encore incluant des entreprises grands comptes) qui n’ont pas encore mis en place de projet concret de gestion de données. Ce qui est un résultat assez alarmant, dans la mesure où ces grandes entreprises, ayant par définition d’importants volumes de données à gérer, ont besoin d’une stratégie robuste de gestion de qualité de données.
L’enquête met également en lumière la relation entre les projets de qualité de données et la confiance des entreprises dans leurs données : 71% des répondants qui ont déjà implémenté un projet de qualité de données ont en effet confiance dans leurs données alors que 88% des entreprises qui n’ont pas encore franchi ce pas n’ont qu’une confiance limitée dans leurs données.
Les entreprises françaises qui ont participé à cette étude ont d’ailleurs conscience que la mise en œuvre de projets de gestion de données va les aider à améliorer l’efficacité de leur organisation (pour 73% des répondants), à réduire les risques (62%), à se mettre en conformité avec les différentes réglementations (37%) et à gérer leurs données maîtres (37%).
Conclusion
« Cette enquête démontre que les entreprises françaises considèrent leurs données comme un capital stratégique pour leur organisation, et qu’une meilleure qualité de leurs données va réellement améliorer leur efficacité », commente Frédéric Combaneyre, consultant Data Management au sein de DataFlux. « Cependant, le fait qu’elles n’aient pas systématiquement entrepris d’initiatives de gouvernance des données les amènent à avoir une confiance limitée dans leurs données. Ces entreprises doivent ainsi en premier lieu établir la responsabilité de la gestion des données au sein de leur organisation, pour permettre aux employés – qu’ils soient du service informatique ou d’un département métier – de prendre en charge la surveillance des risques liés à la qualité des données ».
Deezer Offline fête les 15 ans du label Tôt Ou Tard
Pour la quatrième édition des concerts privés “Deezer Offline” et à l’occasion des 15 ans du label tôt Ou tard, sept artistes se succèderont sur la scène du Cabaret Sauvage le 14 juin prochain.
Le concert privé sera retransmis en direct sur Deezer (+ sur iphone et ipad) et ARTE Live Web, à partir de 21h.
Ce concert anniversaire sera orchestré par Ben Howard, L, Thomas Fersen, Yael Naim, Dick Annegarn, Têtes Raides, Shaka Ponk
Cnam : lancement de la première formation d'ingénieur en informatique par apprentissage
Le Conservatoire national des arts et métiers (Cnam) lance, en partenariat avec l'Association pour la formation d'informaticiens par la voie de l'apprentissage (Afia) la première formation d'ingénieur en informatique, dominante système d'information, par apprentissage en Ile de France.
Selon les besoins rapportés par les entreprises, notamment en Ile de France, recruter des ingénieurs, chefs de projet, architectes, consultants, responsables, gestionnaires compétents dans le secteur des systèmes d'information n'est pas chose aisée. Aucune formation par apprentissage, d'envergure nationale, n'existe dans un domaine qui nécessite une parfaite insertion dans l'entreprise pour en comprendre au mieux les enjeux.
C'est pourquoi le Cnam et l'Afia s'associent pour proposer le premier cursus aboutissant sur l'obtention du titre d'ingénieur en informatique, dominante« système d'information », dans le cadre de l'apprentissage.
Cette formation sera axée sur les méthodologies et techniques de l'informatique et des systèmes d'information. Des cours de formation au management des entreprises sont également prévus. De même, 180 heures d'anglais et un stage de deux mois à l'Université de Salford (Royaume-Uni) doivent aboutir à la validation des compétences linguistiques via le test Business Language Testing (Bulats).
Cette formation dure trois ans, en alternance au sein de l'Ecole d'ingénieurs du Cnam (Eicnam) et d'une entreprise partenaire (Capgemini, PSA, Air France, EDF, AXA, Crédit Agricole, IBM,...). Trente deux enseignants chercheurs et 13 intervenants professionnels seront encadrés par l'équipe Systèmes d'information du Département informatique du Cnam.
Cette formule a déjà été testée avec succès localement en Alsace où depuis 2009, 40 apprentis sont placés avec succès dans des entreprises régionales.
Cette nouvelle formation s'adresse à toute personne de moins de 26 ans, titulaire d'un DUT, d'une licence II, d'un BTS ou d'une licence professionnelle dans le domaine de l'informatique ou dans un autre domaine scientifique.
Les candidatures pour l'inscription sont possibles jusqu'au 20 juin 2011.
Voilà la photo de famille historique de l’ISS !
What an Astronaut's Camera Sees
40 ans de social media (Infographie)
Libellés : Facebook, Histoire, Internet, Réseaux sociaux, Twitter
Via WebActus
Deezer limite l'écoute gratuite
Deezer propose une nouvelle expérience musicale en ligne avec un site 5 fois plus rapide, incitateur à la découverte et au partage de musique. Avec 1,2 million d’abonnés payants à l’offre Premium, Deezer accélère la conversion des utilisateurs les plus actifs vers des offres payantes.
Réseau social d'entreprise : un défi pour l'entreprise ?
Via Doc News
Solving Customer Data Problems With MDM–Find Out How At The Customer Data Forum
Libellés : Data, Data Management, Informatica, MDM, Qualité, Qualité des données
Via Informatica Perspectives Blog
Have you ever received an offer from a company for a product you already own? How about two identical offers for the same product… or even three offers? It’s not uncommon. With all the great applications for campaign management and customer relationship management (CRM) that companies have implemented, how do these costly mistakes keep happening?
The problem isn’t the applications—it’s the customer data they use. In many organizations, customer data is contradictory and incomplete across multiple systems. One reason is that when you made a purchase, you might have entered the name “John” for shipping information, and “Jonathan” for billing.
Customers change their personal and professional addresses, phone numbers, email addresses and other identifying data that companies use to make cross-sell and up-sell offers. Customer data inconsistency can become a nightmare for the company, and most organizations lack the processes and technology needed to empower customer-facing teams such as marketing, sales and customer service with a complete and trusted customer view, which is an essential ingredient to attracting and retaining customers.
This lack of customer data integration means that marketing doesn’t have an accurate customer list for segmentation. They’re unable to send the right offer to the right person at the right time because they can’t be sure which customers have purchased which products and services. They end up wasting time, budget and opportunities.
There’s another cost that’s much harder to measure. If you receive two identical offers for a product or service you already purchased, you probably think the company doesn’t have its act together. You might be tempted to look at an alternative provider. A company that doesn’t have its customer data in order risks damage to its brand reputation and credibility (especially with the increased use of social media to share bad experiences).
Add in the high costs to sales and customer service, and bad customer data amounts to a huge impediment that hinders a company’s ability to attract and retain customers and puts a drag on the top and bottom line.
When MDM goes wrong – five problems arising from poor practices
Impacts de l'actualité sur le trafic Internet
L’analyse de l'évolution du trafic sur les sites médias/d'actualités mesurés par Médiamétrie-eStat - aux mois de mars, avril et mai 2011 - met en évidence l’impact de l’actualité très intense du mois de mai.
Le Tsunami au Japon, le décès de Ben Laden, l'affaire DSK, le Mariage princier ont constitué vérirtablement des "boosters" d'audience.
Voir le classement des sites (nombre de visites en mai 2011)
Data Diversity
Libellés : Data, Data Management, MDM, Qualité, Qualité des données
"As part of my work I deal with data from different countries. In the below figure I have put in some examples of different presentations of the same data from some of the countries I meet the most being Denmark (DK), Germany (DE), France (FR), United States (US) and United Kingdom (GB):
I have some more information on the issues regarding the different attributes :
- Date formats are discussed in the post 1/1/11
- Address formats are mentioned in the posts Compound Words and Having the right element to the left
- Decimal marks are discussed in the post How long is a Marathon
- Names are mentioned in the post What’s in a Given Name
Microsoft sur le point de racheter Nokia ?
Alors ça, si ce n’est pas une rumeur capable de vous tenir en haleine à quelques minutes de l’arrivée de votre week-end (peut-être) prolongé : à en croire le très influent Eldar Murtazin, Microsoft aura mis en place une offre visant à acquérir Nokia contre la somme de 19 milliards de dollars. Rien que ça. Une histoire de boucle bientôt bouclée ? Sans doute, dans le sens où d’une part, l’actuel PDG de Nokia, Stephen Elop, a gagné la plupart de ses galons au sein de la firme de Redmond et que Nokia a d’ores et déjà misé son futur sur la percée de Windows Phone 7…
Via le JournalduGeek.com