I Don’t Trust Your Data

0 commentaires
"The true cost of bad data is unknown and unknowable"

Très intéressant article de Thomas Redman, un des experts les plus reconnus dans la qualité des données au niveau mondial.

"The most acrimonious company battles I’ve personally witnessed have involved disagreements over data—their meanings and whether they could be trusted. I’ve seem a few of these and, in the re-telling below merged them into a single story (I’ve done my best to convey the essence of each of these battles).

In the re-telling, two departments need to work out a particular issue in meeting a sales goal. They’ve not had good experiences with one another in the past, but higher-ups have demanded a joint resolution. Battle lines were drawn as each brought their numbers to meeting. But the numbers didn’t agree. As you can imagine, Department A’s numbers reinforced its viewpoint. Likewise Department B’s." Lire la suite

Le coût des pertes de données informatiques a nettement augmenté en 2011

0 commentaires

Les pertes ou les vols de données informatiques ont coûté en 2011 en moyenne 16% de plus que l’année précédente aux entreprises française, soit 2,55 millions d’euros. Cela s’explique principalement par la multiplication des attaques très ciblées, l’utilisation croissante des terminaux mobiles et les nouvelles réglementations. Selon l'étude « Cost of a Data Breach » du Ponemon Institute, commanditée par Symantec, le coût par donnée compromise passe de 98€ à 122€.

Selon l'étude de Symantec et du Ponemon Institute, le coût lié aux violations de données a augmenté de 34 % en deux ans, depuis la toute première étude du genre publiée en 2010. L’étude révèle également une constance dans les origines de ces violations, des tendances par secteur et des considérations organisationnelles permettant de réduire ces coûts. Les coûts de détection et d’information de ces données compromises augmentent également, en relation avec un environnement légal plus contraignant ainsi que le développement des technologies mobiles. Cette troisième étude annuelle consécutive du Ponemon Institute sur le sujet s’appuie sur les expériences de violations de données de 23 entreprises françaises représentant 10 secteurs d’activités différents.

« Nous constatons cette année encore une hausse des coûts des entreprises associés aux pertes de données », déclare Dr. Larry Ponemon, président et fondateur du Ponemon Institute. Lire la suite

Espace : un morceau d'un vieux satellite russe passe près de l'ISS

0 commentaires
Une pièce d'un ancien satellite Russe est passée à toute vitesse à proximité de la Station Spatiale Internationale (ISS). L'équipe de l'ISS a dû se réfugier rapidement dans deux capsules Soyouz. 

Le débris à la dérive provenait du satellite Russe Cosmos 2251 lancé en 1993. Il est déjà  entré en collision avec le satellite de communication américain Iridium-33 en février 2009. 

La Nasa a indiqué sur son compte Twitter qu'il s'agissait de la "troisième fois" qu'un équipage se réfugie dans les capsules Soyouz en raison du passage de débris. 

Occupée en permanence par un équipage international qui se consacre à la recherche scientifique, l'ISS est en orbite à environ 350 kilomètres au-dessus de la Terre et effectue un tour complet de la planète toutes les 90 minutes à la vitesse de 28.000 km/h.

« Les entreprises doivent évoluer vers un modèle orienté données »

0 commentaires
Big Data est un sujet désormais incontournable pour les entreprises. Pour y faire face, elles doivent commencer leur transition vers un modèle d'entreprise qui place l'analyse des données au coeur des processus de prise de décision.

Entretien avec Johann Romefort, co-fondateur de Seesmic, architecte web sémantique, entrepreneur et spécialiste du sujet Big Data.
Big Data et l'analyse des données deviennent-elles un problème général pour les entreprises, tous secteurs confondus ?
Oui, tout à fait. L'analyse des données n'est pas vraiment nouvelle. On en parle depuis des années, mais les récents développements de la technologie cloud, des capteurs et des senseurs l'ont ramenée au centre des débats. Si vous avez participé à une conférence sur la sémantique du Web il y a quelques années, c'étaient hackers et des « nerds » ; Big Data était un sujet populaire au sein de communautés très spécialisées. Mais les choses évoluent. Je viens de participer à la conférence Strata sur Big Data et je peux vous assurer que le monde des grandes entreprises est entré dans la danse. Les corporations et les entreprises traditionnelles commencent à comprendre qu'elles doivent évoluer vers un modèle basé sur les données.
Qu'est-ce qu'un « modèle basé sur les données », comment va-t-il modifier la vie quotidienne des entreprises ?
Être « orienté données » signifie : prendre des décisions sur base de données. Traditionnellement, les managers et CEO prennent les décisions en fonction de l'objectif qu'ils se sont assigné. Les entreprises ... lire la suite

Microsoft Research : High Performance Touch

0 commentaires
Modern touch devices allow one to interact with virtual objects. However, there is a substantial delay between when a finger moves and the display responds. 

Microsoft researchers, Albert Ng and Paul Dietz, have built a laboratory test system that allows us to experience the impact of different latencies on the user experience. The results help us to understand how far we still have to go in improving touch performance.

Tour of the moon

0 commentaires
Très belle animation permettant une visite virtuelle de la lune. La sonde LRO a permis de réaliser ces images exceptionnelles.

Big Data : qui est concerné ?

0 commentaires
Pas un jour ne se passe sans que des dizaines, que dis-je, des centaines d'articles soient publiés sur le phénomène Big Data. 

Certes, si de nombreux acteurs du monde l'IT cherchent à se positionner sur ce "créneau" à tout prix pour profiter du mouvement et de l'eldorado qui se profile, il est selon moi très clair qu'au delà du Buzz et des annonces Marketing, il y a une réalité que les décideurs IT doivent désormais prendre en compte : l'échelle et la nature des données est en train de changer.  L'explosion du volume de données (on parle désormais de Pétaoctets) et la prise en compte des données non structurées (Web, réseaux sociaux, vidéos, images, sons,...) constituent un véritable sujet. Derrière ces montagnes d'informations, se cache de la valeur.

Le très intéressant article de Judy Ko d'Informatica explique pourquoi le Big Data concernera bientôt la plupart des entreprises.  L'installation du Cloud Computing, les intéractions entre les réseaux sociaux et l'entreprise (notamment les services Marketing), et enfin l'avenir prometteur et déjà en marche de la mobilité sont autant de raisons pour toutes les sociétés d'être confrontées au déluge de données et d'y puiser des opportunités.

Nouveau programme Dataconnexions et le startup program Dassault-Systemes Exalead

0 commentaires
Le Premier ministre a créé par décret du 21 février 2011 la mission Etalab afin de coordonner l’ouverture des données publiques des administrations de l’Etat et de ses établissements publics, et notamment de créer la plateforme d’Open Data de la France.
L’objet de cette dernière est de rassembler et mettre à disposition librement et gratuitement le plus grand nombre d’informations publiques de l’État, de ses établissements publics, des autorités administratives, et, si elles le souhaitent, des collectivités territoriales et des personnes de droit public ou de droit privé chargées d’une mission de service public.
La plate-forme data.gouv.fr a été lancée le 5 décembre dernier. CloudView en est le moteur de recherche embarqué.
Aujourd’hui, dans le prolongement de data.gouv.fr, et toujours dans le cadre de sa mission de soutien à l’innovation et au développement de l’économie numérique, Etalab lance officiellement le programme « Dataconnexions » afin d’encourager la réutilisation des données ouvertes et de créer de nouveaux usages.
C’est donc très naturellement et avec beaucoup d’enthousiasme qu’Exalead a choisi d’accompagner activement le programme Dataconnexions, la communauté de l’innovation, en mettant à disposition sa technologie et son expertise pour concrétiser la volonté affirmée de l’Etat français de promouvoir l’Open Data. Exalead est partenaire « Gold Hébergeur » du programme Dataconnexions.
Exalead souhaite participer activement à Dataconnexions pour encourager et aider les startups innovantes françaises à créer, développer et commercialiser de nouveaux usages de la donnée publique. L’objectif est clair : donner vie à des dizaines de projets en collaboration avec de grandes organisations ou de jeunes entreprises qui ont compris que la mise à disposition des données publiques ouvrait une nouvelle ère d’échange, de transparence et de confiance entre les citoyens et les administrations publiques.
Exalead propose un programme d’accompagnement spécifique pour les startups :
Après analyse d’un dossier de candidature, Exalead offrira aux startups sélectionnées de Dataconnexions un accès gratuit à Exalead CloudView pendant une durée de deux ans ou jusqu’à la réalisation du premier plan de financement, ainsi que des formations et un support technique. Cette offre sera prolongée d’une offre commerciale spécifiquement adaptée aux startups.

Google se dirige vers un moteur de recherche sémantique

0 commentaires
D'ici quelques mois, Google va intégrer la recherche sémantique dans son moteur de recherche. 

Actuellement, lorsque vous effectuez une recherche, Google fournit les liens correspondant aux mots clés saisis dans la fenêtre de saisie. Avec la recherche sémantique, pas de changement pour l'utilisateur, mais les résultats seront plus proches de la question posée, du fait de l'enregistrement dans sa base de données de millions de recherche et d'expressions et des associations effectuées par les utilisateurs ayant cliqué sur les liens correspondants. 

Cela représente clairement un progrès dans la pertinence des résultats de recherche...mais aussi un bouleversement pour les référenceurs !

Big Data: The Only Business Model That Tech Has Left

0 commentaires
Le Big Data a fait irruption dans le paysage de l'informatique et du décisionnel depuis environ un an, mettant la donnée au cœur de la stratégie de l'entreprise. Au delà de la problématique technique de traitement de très importantes volumétries de données, de réels enjeux "business" sont au coeur de cette nouvelle révolution. 

J'aurai l'occasion d'approfondir cette question qui me passionne (nous sommes clairement à un tournant de l'univers des SI), et en attendant je vous propose de découvrir l'analyse de Shomit Ghose, Partner au sein de ONSET Ventures, une société de Capital risque particulièrement présente dans les technologies d'avenir et les projets innovants :

"Remember sitting through your college physics classes wondering when you’d ever need to apply what you were learning? That time has now come. In spades. In physics, the second law of thermodynamics states that all systems seek to evolve so as to either minimize their energy or maximize their disorder (AKA entropy). From a state of zero entropy at the Big Bang, our universe has been expanding toward a state of maximum entropy for roughly the past 14 billion years. And today, in my day-to-day life as a venture capitalist investing in software companies, every start-up I see is directly related to the second law of thermodynamics. 

Death, Taxes and Free Computing 
Computing has been subject to the same forces as the physical universe. From the zero entropy moment of the commercial introduction of the UNIVAC I in 1951, all aspects of computing have been hurtling toward maximum entropy. In computing hardware, for example, we’ve gone from the “minimum energy” model of the mainframe, to rapidly accelerating entropy with the minicomputer, the PC, the-device-formerly-known-as-the-cell-phone, and now the tiny wireless sensors that comprise “the Internet of Things.” As computing hardware has become steadily smaller and more ubiquitous, the cost of computing cycles has decreased apace, and now has been commoditized to the point that it asymptotically approaches zero. 

The same dynamic has unfolded in networking bandwidth. From the limited reach, penetration and bandwidth of the LAN and WAN networks of yore, today’s networks are ubiquitous – think 3G, 4G, Wi-Fi, Bluetooth, NFC – available at ever-higher speeds, and at precipitously lower cost per bit. 

Software has also been hurtling toward maximum entropy. Historically, enterprise software sales models – e.g., pricing, go-to-market strategy – paralleled those of Big Iron hardware. Not so long ago, a software company’s board of directors would have rejoiced if the company closed a single $5 million deal. Today, a software company’s board rejoices if their company closes five million $1 deals. Some of the most successful companies in the world – Google and Facebook stand as prime examples – earn their billions of dollars in annual revenue in fractions of a cent at a time. We live in an age where open source software, mobile applications and on-demand SaaS and cloud-based applications have commoditized software to the point that the price of applications is also asymptotically approaching zero. Computing truly has become “the land of the free.” 

Data: the Only Remaining Business Model 
With hardware, networks and software having been commoditized to the point that all are essentially free, it was inevitable that the trajectory toward maximum entropy would bring us to the current age of Big Data." 


The People Behind the Way We Live

0 commentaires

The People Behind The Way We Live
From: BestCollegesOnline.org

Améliorer la qualité des données lors d'une migration

0 commentaires
Je vous invite à lire l'excellent article de Dylan Jones "The Secret to Data Quality Improvement During Data Migration"

Les projets de migration de données sont trop souvent considérés comme des projets exclusivement techniques. L'une des premières choses à faire est au contraire de définir le système cible en termes de "Business Functions" et ... de données métier. Il est essentiel à ce stade de définir les données qui apportent de la valeur à l'entreprise, et de purement et simplement oublier les autres. Le scope des données à nettoyer/améliorer s'en trouvera d'autant plus réduit.

Il faut aussi dans le même temps s'interroger sur les causes des défauts de qualité de données du système source, pour y remédier de façon durable dans le système cible. Les efforts considérables déployés pour nettoyer les données ne servent à rien si l'on n'identifie pas les véritables raisons de ces défauts. 

 

My Data News. Copyright 2008 All Rights Reserved Revolution Two Church theme by Brian Gardner Converted into Blogger Template by Bloganol dot com