Philips Daylight Window Concept Presentation

0 commentaires
Etonnante et impressionnante présentation du "Philips Daylight Window Concept" effectuée lors du Simplicity Event 2007 à Earls Court (Londres).

Bilan et Perspectives TIC dans l'Administration Française, 2008-2010

0 commentaires
La nouvelle étude de Markess intitulée « Bilan et Perspectives TIC dans l'Administration Française, 2008-2010 » indique que les budgets informatiques dans le secteur public sont inégalement impactés par la crise.

Pour l’année 2009, la croissance des budgets informatiques devrait se contracter dans l’ensemble pour atteindre +2,5%. La situation n’est cependant pas homogène selon le type d’administration concernée. Ainsi, les ministères semblent plus préservés en avançant un taux prévisionnel de croissance de leur budget informatique de +6%. En revanche, les collectivités locales devraient resserrer leur budget car elles prévoient seulement une croissance de +3%. Enfin, les organismes sous tutelle ou rattachés semblent les plus touchés car ils annoncent une stagnation, voire une décroissance de leur budget.


En ce qui concerne plus spécifiquement les budgets qui seront alloués à l’externalisation dans le domaine IT (hébergement d’infrastructures IT et/ou d’applications, infogérance, recours à des services en ligne en mode SaaS…, mais hors tierce maintenance applicative), 54% des administrations centrales et locales interrogées indiquent qu’ils seront en augmentation d'ici fin 2010. Cette hausse devrait être modérée (entre 1% et 5%) à soutenue (plus de 5%, voire plus de 10%). En contrepartie, 39% des administrations évoquent une stagnation de ces budgets.

Parmi les formes d’externalisation plébiscitées pour 2009, les 100 administrations interrogées mettent en avant :

-L’hébergement, tout particulièrement pour les intercommunalités et les organismes sous tutelle ;
-L’infogérance, avec un intérêt marqué du côté non seulement des intercommunalités mais aussi des conseils généraux, des organismes sous tutelle et des ministères.

Prédictions et Tendances du Marché de la Mémoire

0 commentaires
John Tu, President et co-fondateur de Kingston Technology, le premier constructeur mondial indépendant de produits mémoire, donne sa vision de l’évolution en 2009 de l’industrie mondiale de la mémoire, tant du point de vue économique que technologique.

Consolidation et simplification du marché – « L’impact réel du ralentissement économique commençant à se faire sentir, il est probable que les plus petits acteurs du marché de la mémoire vont rencontrer des difficultés croissantes, et que certains disparaîtront. Un accroissement trop rapide de la production et du nombre de producteurs de puces mémoire a entraîné une baisse des prix au cours des derniers mois, et la consolidation du marché devrait aider l’industrie à se corriger d’elle-même. Dans cet environnement, Kingston Technology est bien positionné pour absorber les effets de la crise économique actuelle grâce à une situation financière solide et d’importantes réserves de trésorerie. »

Montée en charge des nouvelles technologies DRAM –« La mémoire DDR3 gagnera du terrain sur le marché en 2009. Cette croissance sera encouragée par l’introduction et l’adoption de technologies mémoire ‘triple channel’ et peut être ‘quad channel’. Nous pouvons également nous attendre à la montée en charge des modules mémoire VLP (Very Low Profile), qui permettront de consommer moins de matières premières pour les modules nouveaux et existants. Nous constaterons également une demande croissante pour des modules mémoire haute performance de la part des utilisateurs exigeants, qui ont besoin de toujours plus de performances pour des applications multimédia par exemple. »

Accroissement des capacités en mémoire flash – « 2009 verra très probablement un accroissement de la demande pour les cartes SD haute performance et haute capacité (SDHC) au fur et à mesure de l’avènement des appareils photo et caméscopes haute définition. Le plafond de capacité actuellement pour le format SDHC est de 32 Go, mais ce format pourrait évoluer courant 2009 pour permettre la production de capacités plus élevées. »

Protection des données, une tendance forte en 2009 – « 2008 a mis en évidence un fort besoin de protection des données à la fois dans les secteurs public et privé. La multiplication des scandales liés à la perte de données critiques montre que le risque potentiel est réel lorsque des procédures adéquates ne sont pas en place et lorsque les bonnes technologies ne sont pas utilisées pour garantir la sécurité des données. L’année qui vient verra un accroissement de la demande pour les clés USB avec un encryptage matériel, et la poursuite de la montée des capacités de stockage proposées. »

La virtualisation, au-delà de l’effet de mode – « La virtualisation continuera d’être un sujet chaud et s’imposera en tête des préoccupations des directions informatiques. Selon le cabinet Gartner, la virtualisation est désormais au-delà de l’effet de mode et il est probable que les entreprises commenceront à en tirer des avantages concrets. Concernant la mémoire, les directions informatiques commenceront probablement à rechercher des moyens d’améliorer leur retour sur investissement et leurs coûts de fonctionnement dans le cadre de leurs projets de virtualisation. Ceci devrait passer par un accroissement de la capacité mémoire des serveurs virtuels. Une capacité mémoire plus élevée améliore aussi les performances et la capacité d’extension des machines virtuelles. »

Les SSD toujours d’actualité mais pas encore une technologie majeure – « Les disques SSD (Solid State Drives » continueront d’être fortement présents dans les discours marketing et dans les programmes de R&D des fournisseurs, mais je ne pense pas qu’ils deviendront une technologie majeure en 2009. Ils seront toujours trop chers car le différentiel de prix entre les disques SSD à mémoire électronique et les disques durs traditionnels (en partant du prix du Gigaoctet) reste considérable. Toutefois la surproduction croissante constatée sur le marché des puces mémoire flash NAND au cours des 12 derniers mois pourrait conduire à une accélération de la baisse des prix, rendant ainsi les disques SSD plus accessibles. »

Nouveaux standards pour les disques SSD – « 2008 a connu un certain nombre de problèmes de fiabilité liés à de nouvelles utilisations des disques SSD. Ces problèmes étaient essentiellement dus à des soucis de mise au point, normaux pour une technologie très jeune. Des améliorations ont été introduites et les produits proposés par les principaux fournisseurs ont désormais une qualité correcte. Néanmoins, au fur et à mesure de l’accroissement de la demande de disques SSD il est probable que de nouveaux standards vont être introduits pour garantir à la fois haute performances et haute qualité pour cette technologie. »

Green IT – les gens s’en soucient ils encore ? – « Je pense qu’en 2009 le ‘Green IT’ continuera d’être d’actualité mais moins en raison de son côté écologique qu’en raison des économies de coût qui lui sont associées. La hausse continue des coûts de l’énergie touche tout le monde, donc si les entreprises se tournent vers des équipements plus économes en énergie ce n’est pas uniquement pour des raisons écologiques mais parce que cela permet d’accroître la rentabilité. »

Le Contact Data Management, enjeux et démarche

0 commentaires
Interview de Olivier Mansard, Directeur Général EMEA d’Experian QAS.

1/ Pouvez-vous rappeler les enjeux pour toutes les entreprises de posséder des données qualifiées ?
Il y a ici deux enjeux principaux : un enjeu stratégique et un enjeu opérationnel. L’enjeu stratégique réside dans le fait que des données qualifiées permettent à l’entreprise de prendre les bonnes décisions. On comprend bien en effet que si la direction d’une organisation a des doutes sur la qualité de ses données, elle aura beaucoup de mal à s’appuyer sur ces mêmes informations pour prendre les décisions nécessaires. La corrélation est évidente entre la qualité des données et la pertinence des décisions prises.
Le second enjeu, opérationnel, est lié au fait que lorsque les flux d’informations de l’entreprise sont maîtrisés, l’organisation augmente indéniablement son efficacité. A l’inverse, lorsque vous avez des données erronées, les processus internes de l’entreprise s’en trouvent dégradés et lui coûtent du temps et de l’argent. Ainsi, l’efficacité globale vis-à-vis des clients de l’entreprise en pâtit. Pour résumer, c’est la relation toute entière de l’entreprise avec son environnement externe et interne qui est ici dépendante de la qualité des données.

2/ Le Contact Data Management (CDM), concept marketing ou véritable stratégie à long terme ?
Le CDM est la révélation d’une problématique connue et reconnue depuis longtemps qui prend de plus en plus d’importance avec l’explosion des données numériques et du multi canal. Selon une étude d’IDC datant de mars 2008, les entreprises devront faire face d’ici 2011 à une croissance exponentielle de leurs données informatiques qui atteindront 1800 milliards de gigaoctets.

Ainsi, on perçoit donc ici que c’est bien à la source que l’information doit être validée. En effet, si les entreprises choisissent de traiter la problématique en aval, on se doute bien qu’il y aura beaucoup de pertes et de gâchis. Alors que si la donnée est contrôlée au point de contact – d’où l’expression Contact Data Management – on est certain de réussir à la filtrer.

Le CDM est pour moi un concept non marketing qui répond aux évidences suivantes : les entités doivent s’assurer que les données essentielles sont parfaitement gérées au point d’entrée tant les Systèmes d’Information des entreprises sont extrêmement vulnérables et dépendants de la qualité de celles-ci.

3/ Comment mettre en place une stratégie de CDM efficace ? Qui est concerné dans l’entreprise ?
Le problème se pose de manière différente en fonction de la taille de l’entreprise et de sa stratégie de relation client. Si cette stratégie est riche, et si elle a pour cible différents marchés, l’entreprise est par nature extrêmement sensible à la problématique du CDM. En effet, plus la société possède des canaux de contacts différents avec ses clients, plus elle agit sur différents marchés, et plus celle-ci sera concernée - parce que vulnérable en vérité - à la problématique de la donnée.

Citons ici par exemple, les puresplayers E-commerçants qui sont, par leur activité, très sensibles à cette problématique. Ceux-ci ont maintenant bien compris que les informations qu’ils obtiennent de leurs clients internautes sont assez loins d’être de bonne qualité (formulaires remplis en ligne). Ils ont un vrai besoin de qualifier et de sécuriser la qualité de leurs données au point de contact. Pour la mise en place d’une démarche de CDM efficace, la stratégie devrait être la suivante :

La première étape est de réaliser un travail d’audit : faire un état des lieux entre la relation de l’entreprise et son environnement est indispensable. Cet audit au niveau des flux de données permettra de faire prendre conscience à l’entreprise de son niveau de protection.

Il est ensuite conseillé d’identifier les canaux essentiels présents et futurs de l’entreprise : par exemple, pour une société qui base aujourd’hui sa prise de contact par centres d’appels et qui souhaite la faire évoluer vers du 100 % web, il est évident qu’elle devra orienter à l’avenir sa stratégie sur ce canal uniquement.

Enfin, il est très important d’évaluer les produits proposés sur les bons canaux de prises de contacts. Ces évaluations devant démontrer le bon fonctionnement de la solution retenue bien sûr, mais aussi le retour sur investissement. La phase d’évaluation est très importante pour conforter l’intérêt des solutions choisies par l’entreprise.

4/ Quels sont les ROI d’une stratégie de CDM ?
Les ROI d’une stratégie de Contact Data Management peuvent être très significatifs. Les ROI se calculent essentiellement sur les gains opérationnels : se sont des ROI rapides sur moins d’un an.
Il est plus difficile de mesurer le vrai ROI « décisionnel ». On est en droit de se demander quel est l’impact pour une organisation de prendre de bonnes décisions ? L’enjeu est ici bien plus supérieur au ROI quantitatif.
Le ROI quantitatif est justifié par les économies et les gains associés à une meilleure qualité de la gestion des données de l’entreprise.
Enfin, le ROI qualitatif est associé à la fois à la stratégie de l’entreprise, qui est optimisée par la qualité de ses prises de décision qui s’appuie sur des meilleures données. Ainsi, dans la relation avec les clients de l’entreprise, l’image de marque de celle-ci en sera grandement améliorée.
>>> Pour approfondir, cliquer ici

MDM : DataFlux reçoit un trophée

0 commentaires
DataFlux, éditeur leader de solutions de gestion de la qualité et d’intégration des données, annonce que sa solution qMDM vient de se voir attribuer le label «Yphise Award», décerné par le cabinet de recherche Yphise. Cette distinction est le résultat des conclusions d’Yphise sur l’évaluation des produits logiciels associés aux marchés du MDM (Master Data Management) et MDQ (Master Data Quality), distinguant la solution de DataFlux en comparaison à celles d’Oracle et d’IBM.

Dans les conclusions de son étude, Yphise a positionné DataFlux qMDM Solution comme leader du marché, en s’appuyant sur 4 critères principaux:

- Limitation des délais et des coûts liés à l’’accès et la gestion des données de référence
- Optimisation de la qualité des données
- Contrôle et optimisation de la cohérence et de la précision des données
- Automatisation de la distribution des données pour améliorer la qualité des données du Système d’Information.
A propos d'Yphise
Le métier d'Yphise est d'identifier et évaluer les progiciels qui méritent investissement en grande entreprise. Ses publications font référence dans le monde. Yphise évalue 150 progiciels par an depuis 1985. La recherche Yphise couvre les domaines d'intérêt des grandes entreprises pour développer, exploiter, maintenir et sécuriser les systèmes d'information nécessaires à leur compétitivité. Yphise a une expertise sans équivalent pour apprécier les priorités d'investissement parmi les familles de progiciels selon les préoccupations des grandes entreprises.
 

My Data News. Copyright 2008 All Rights Reserved Revolution Two Church theme by Brian Gardner Converted into Blogger Template by Bloganol dot com