Overblog
Suivre ce blog Administration + Créer mon blog
25 mars 2009 3 25 /03 /mars /2009 12:13
A l'IDF de Pékin, Intel devrait annoncer une nouvelle version de son processeur Atom. Une opération destinée à relancer le marché des MID.

La rumeur courait sur le Web depuis quelques jours. Elle se confirme désormais. Selon des sources proches d'Intel, le fondeur devrait annoncer une nouvelle version de son processeur Atom à 2 GHz le 8 avril prochain, à l'occasion de sa conférence IDF à Pékin. Ce nouveau modèle, le Z550, serait une puce monocoeur avec une fréquence de 2 GHz, une mémoire cache de 512 Mo et une fréquence de bus de 533 MHz. Malgré ses progrès, la puce limite sa consommation électrique à 24 watts, comme le reste des Atom de sa catégorie. Ce modèle serait plus particulièrement destiné aux MID (Mobile Internet Device) et, dans une moindre mesure aux netbooks.

Aucune version double coeur de l'Atom n'est prévue pour ces deux plateformes dans un avenir proche.

Tout l'article sur Distributique :
http://www.distributique.com/actualites/lire-intel-annoncera-un-atom-a-2-ghz-des-le-mois-d-avril-12158.html
Partager cet article
Repost0
24 mars 2009 2 24 /03 /mars /2009 09:12
Dans un contexte économique houleux, le secteur de la gestion électronique de documents ne va pas tomber à la renverse. Au contraire, une croissance vigoureuse à deux chiffres est attendue.

 Comment va évoluer le secteur de la GED en 2009 ? 

Le secteur de l'économie numérique dans son ensemble et de la GED en particulier va poursuivre son dynamisme en 2009, porté par plusieurs facteurs. Tout d'abord, la forte demande du secteur public en matière de solutions de GED et de prestations de services associées mais aussi les initiatives comme le plan Besson. 

Dans notre pays, le dynamisme de ce secteur est porté par les conséquences de l'évolution du paysage normatif, légal et réglementaire. L'un des exemples les plus marquants concerne le domaine de la facture électronique qui a amené les acteurs à se positionner sur un marché à forte croissance.

L'autre aspect qui fait évoluer le marché est tout ce qui a trait au développement durable. ....
Les solutions de GED ont gagné en maturité et nombreuses sont celles à orienter leur couverture fonctionnelle vers la maîtrise de l'information numérique au sens large. Derrière ces enjeux, on trouve bien évidemment celui du traitement des informations non structurées. Pour 2009, nous estimons que le marché de la GED et tout particulièrement celui de l'intégration de services dans le domaine de la dématérialisation des factures évoluera sur une croissance à deux chiffres.

Open Source, offshore, conséquences de la crise économique... Quels facteurs renforceront ou pénaliseront ce secteur ?

Les technologies Open Source liées à l'économie numérique et à la GED sont en très forte croissance. Mais il n'existe pas une particularité qui soit propre au secteur. Ce phénomène de croissance est comparable à celui des technologies de l'information au sens large. Lorsqu'une entreprise se met en recherche d'une solution de GED, c'est désormais très rare qu'elle fasse l'impasse sur les technologies issues du monde Open Source.

En revanche, je ne pense pas que l'offshore en matière de GED soit aussi développé que ce que l'on aurait pu imaginer au départ. La tendance serait même au contraire à la relocalisation de la production documentaire. 

......

Quel bilan tirez-vous de la forte concentration du secteur sur ces dernières années ?

La concentration est un phénomène qui n'est pas caractéristique du marché de la GED mais est général au secteur des TIC. Les rapprochements significatifs qui ont été réalisés tout au long des dernières années comme EMC avec Documentum, IBM avec FileNet ou dernièrement le rachat d'Interwoven par Autonomy témoignent que la maturité est atteinte pour nombre de briques de GED.

.....

Tout l'article sur Le Journal du net :
http://www.journaldunet.com/solutions/intranet-extranet/interview/l-open-source-dans-la-ged-est-en-tres-forte-croissance.shtml?f_id_newsletter=711

Partager cet article
Repost0
23 mars 2009 1 23 /03 /mars /2009 21:41

Technologie - Bien qu'il repose sur un hyperviseur classique chapeautant des machines virtuelles, un projet de virtualisation de PC comporte d’importantes spécificités. Voici huit conseils pour éviter des écueils qui ne sont pas que technologiques.


1 - Délimiter le périmètre du projet

Il n'est pas forcément opportun de migrer l'ensemble du parc. S'il existe déjà une infrastructure de clients légers traditionnelle, celle-ci peut être conservée, au moins provisoirement, pour les utilisateurs les moins intensifs ; par exemple ceux qui n'exploitent qu'une ou deux applications métiers. A l'inverse, il n'est pas encore pertinent de virtualiser des postes très exigeants en ressources matérielles ou exécutant des applications multimédias ou 3D.


2 - Analyser les contraintes réseau

Sur le réseau local, les contraintes de débit ne représentent pas un point critique, dans la mesure où les protocoles de déport d'affichage sont peu gourmands. Toutefois, celui de Citrix (ICA) reste plus efficace que RDP de Microsoft, lorsqu'il s'agit de desservir des sites distants via un réseau étendu (WAN).


3 - Evaluer le retour sur investissement

Comme souvent dans les projets de consolidation, l'investissement compense à peine les économies réalisées. En l'occurrence, la mise en oeuvre des serveurs affiche un coût auquel il faut ajouter celui des clients légers. Le gain est finalement réalisé sur les opérations de déploiement et d'administration. Il se mesure en termes d'économie (personnel, déplacements) mais aussi de temps, puisqu'il est possible de configurer un PC virtuel et d'installer un terminal en quelques minutes au lieu de plusieurs heures.
......

Tout l'article sur ZDNet :
http://www.zdnet.fr/actualites/it-management/0,3800005311,39388874,00.htm

Partager cet article
Repost0
23 mars 2009 1 23 /03 /mars /2009 21:28

Après des années de forte récession, le marché du CRM (Customer Relationship Management - Gestion de la Relation Client) semble reprendre une croissance réelle, avec environ 14% de progression selon le Gartner en 2008. Les énormes projets qui ont fait le succès de certains éditeurs semblent révolus, au profit d'une démarche souvent Saas.

La crise actuelle peut être considérée comme une opportunité pour la gestion de la Relation Client, en ce sens que les outils de connaissance du capital client et de la relation client sont des moyens clairs d'apporter plus de valeur ajoutée à l'entreprise et d'augmenter la productivité des forces commerciales, conditions sine qua non pour traverser la crise.

La difficulté de mise en place d'un projet CRM

Voici quelques unes des questions que tout chef de projet s'est un jour posées au moment de la mise en oeuvre d'une solution CRM dans son entreprise : « Quelle est ma vision du CRM ? Comment définir clairement la Relation Client dont mon entreprise a besoin ? Mon CRM doit-il être une simple consultation de données statiques ou, au contraire, doit-il m'accompagner dans la mise en place de process d'exploitation de ces données ? ».
Ces interrogations illustrent la difficulté première au projet CRM : savoir clairement définir son besoin. La réussite de ce plan est conditionné à ce pré-requis : l'entreprise doit avoir une vision claire et précise de son CRM. Un projet CRM peut s'avérer ambitieux et coûteux, il est donc indispensable de savoir identifier les facteurs clés de réussite tout en mesurant les risques liés à celui-ci.

Les facteurs clés de réussite

Comme précédemment évoqué, un des éléments clé est d'avoir une vision claire et précise de son projet CRM, ce qui sous-entend avoir également une maîtrise de la connaissance client souhaitée. Cette maîtrise permet de fixer les objectifs, les moyens à mettre en oeuvre, et de définir les résultats attendus ainsi que le fameux « ROI » du projet.
......

Tout l'article sur CIO :
http://www.cio-online.com/contributions/lire-la-mise-en-place-d-un-projet-crm-en-entreprise-facteurs-cles-de-reussite-de-risques-et-conduite-du-changement-261.html

Partager cet article
Repost0
23 mars 2009 1 23 /03 /mars /2009 21:12

  Vinod Kumar est le président de l'opérateur télécoms indien Tata Communications. De passage à Paris fin février, comme c'est le cas 3 ou 4 fois par an, il fait le point sur ses ambitions en Europe. Il propose des services télécoms Ethernet longue distance, de la téléprésence, des réseaux de contenu vidéo, et de l'hébergement.

Réseaux et télécoms : Tata Communications est un opérateur télécoms d'origine indienne. Etes-vous présent en France ?
Vinod Kumar :Nous avons 150 clients en France, dont un tiers des entreprises du CAC 40, telles que Société Générale, BNP Paribas, Crédit Agricole, le groupe TOTAL ou Dassault.. Mais nous avons aussi un client comme la chaîne de magasins de vêtements pour enfants Okaidi. Ces magasins représentent 400 sites. En France, les lignes sont louées auprès de France Telecom et des sites sont également situés en Italie. Nous fournissons les passerelles DSL et la gestion du réseau. Les équipes de Tata Communications comprennent 50 personnes en France, 250 en tout en Europe. Tata Communications emploie 5500 personnes dans le monde, dont 4200 en Inde.

Réseaux et télécoms : Vous différenciez-vous en étant les moins chers du marché ?
Vinod Kumar : Notre but n'est pas d'être les moins chers. Nous sommes plus flexibles que les autres opérateurs, plus agiles et nous nous adaptons aux besoins de nos clients.
Nous proposons des offres directement aux entreprises et de la capacité à d'autres opérateurs. Nous sommes numéro un dans le domaine de la revente de capacité. Nos services comprennent au-delà de la fourniture d'un réseau télécoms, des services managés comme l'hébergement, la sécurité, la délivrance de contenu (CDN ou Content Delivery Network), et une offre de vidéo conférence de haute qualité : la téléprésence Notre activité en Inde est en forte croissance. Nous sommes aussi présents en Chine, Afrique du Sud, et Moyen Orient, une zone importante pour nous.

Tout l'article sur Réseaux & Télécoms :
http://www.reseaux-telecoms.net/entretiens/lire-tata-communications-mise-sur-les-services-manages-pour-la-france-74.html
Partager cet article
Repost0
23 mars 2009 1 23 /03 /mars /2009 21:08
Le projet de virtualisation mené par Atari Infogrames Entertainment était guidé par une véritable urgence liée à l'obsolescence du parc et par un besoin de réduire les dépenses. De ce point de vue, un rapide calcul mettra en évidence une baisse substantielle des coûts.

Chez l'éditeur et distributeur de jeux vidéo Atari Infogrames Entertainment, le projet de virtualisation d'une quarantaine de serveurs est né d'une volonté de réduire les coûts d'exploitation et de location-maintenance. Il fallait en effet renouveler une trentaine de serveurs arrivant en fin de vie ou au terme de leur contrat de location.

Or, Nicolas Laarman, vice-président Management Information Systems, a calculé qu'une nouvelle location-maintenance de 30 serveurs lui aurait coûté 200 000 euros. Quant à l'achat de ces serveurs, il aurait coûté au moins 300 000 euros. Mais 80 000 euros suffisaient à financer quatre serveurs Dell permettant de virtualiser la quarantaine de serveurs existants. Sans compter la possibilité de monter un vrai PRA (qui sera basé sur trois serveurs de virtualisation externes) et sur la concentration des serveurs de la filiale américaine sur une machine de virtualisation dédiée en France (deux salles informatiques sur quatre ont ainsi pu être libérées).

Tout l'artilce sur Rseaux & Télécoms :
http://www.reseaux-telecoms.net/actualites/lire-calcul-de-couts-a-l-appui-atari-virtualise-dans-l-urgence-quarante-serveurs-19753-page-1.html

Partager cet article
Repost0
20 mars 2009 5 20 /03 /mars /2009 09:57

Chez Microsoft on aime la mise en scène... Dean Hachamovitch le directeur général de la division Internet Explorer l'a avoué au salon des développeurs MIX09. Tant il était excité, il a eu du mal à trouver le ton juste dans son  allocution  préliminaire au lancement d'Internet Explorer 8 .....

.Des nouveautés déjà présentes chez la concurrence

Du point de vue des nouveautés, point de grands bouleversements au niveau graphique. Les nouvelles fonctionnalités sont discrètes mais bien présentes. D'abord, Microsoft rattrape son retard en ajoutant des fonctions déjà présentes chez ses concurrents Firefox et Chrome (Google). C'est le cas de la barre d'adresse intelligente notamment. Mais les principales améliorations reposent sur  le système de Webslices, sortes de flux RSS permettant de notifier les nouvelles publications d'un site web sans en afficher le contenu entier. On trouve également ce que l'éditeur appelle les Accélérateurs. Ils permettent d'accéder rapidement à de nouvelles fonctions en effectuant un clic droit sur un élément.


Des tests maison pour prouver ses qualités..
.

Pour le reste, les deux fers de lance habituels de Microsoft pour affirmer sa suprématie reposent sur la sécurité et rapidité. Chiffres à l'appui issus d'une enquête du NSS Lab, un laboratoire spécialisé dans la sécurité des navigateurs, . ....

Une concurrence de plus en plus accrue

IE8 était déjà disponible en téléchargement depuis près d'un an en version bêta. Il succédera donc à Internet Explorer 7 qui est le navigateur phare de Microsoft depuis maintenant deux ans et demi. Le navigateur sera  également intégré à Windows 7 avec la possibilité de le désactiver au profit d'autres navigateurs. IE8 sera compatible avec Windows Vista et XP.

.......

Tout l'article sur ZDNet :
http://www.zdnet.fr/actualites/internet/0,39020774,39388365,00.htm

Téléchargez Internet Explorer 8 sur ZDNet.fr

Partager cet article
Repost0
20 mars 2009 5 20 /03 /mars /2009 09:26
Face à une actualité financière et économique défavorable, la maîtrise des coûts devient vitale. La mise en œuvre d’une démarche outillée de type ABC/M permet de répondre à cet enjeu sans hypothéquer le développement de l’entreprise.
 
A une économie mondialisée, stimulant la concurrence, (et rendant la différenciation difficile et onéreuse), s'ajoute une actualité financière marquée par une visibilité réduite (affectant les volumes de ventes). Dans de telles circonstances, la performance financière d'une organisation réside dans l'optimisation d'une rentabilité durable. Cette optimisation n'est possible que si l'organisation est capable d'adapter sa structure de coûts à sa structure de revenus, construisant ainsi une rentabilité pertinente, permettant d'identifier les leviers (variables explicatives) de pilotage de la performance.

Si les revenus sont souvent disponibles avec une granularité satisfaisante (produit, client et canal de distribution... appelés par la suite "objets de coût"), les coûts, composés en partie de dépenses indirectes, sont par contre difficiles à connaitre à ce même niveau de granularité. En effet, dans la méthode analytique traditionnelle en coûts complets, l'allocation des coûts indirects, aux objets de coûts se fait, soit au prorata des coûts directs, soit sur la base d'une clé de répartition arbitraire. Les coûts indirects devenant de plus en plus importants, la méthode traditionnelle (approximative) se montre de moins en moins précise pour répondre à la question: "Comment sont consommés mes coûts ?"

......

Tout l'article sur Le Journal du Net :
http://www.journaldunet.com/solutions/expert/36263/la-methode-abc-m---gestion-par-les-activites-pour-un-pilotage-des-couts.shtml
Partager cet article
Repost0
19 mars 2009 4 19 /03 /mars /2009 09:39


Depuis que le PC s'est généralisé dans l'entreprise, de nombreuses solutions ont été proposées pour initialiser leurs systèmes, installer les applications, effectuer les mises à jour, remettre la machine en état de marche après une attaque virale grave, ou encore contrôler voire réinitialiser sa configuration. Les technologies de déport d'interface utilisateur sur des clients légers ou de virtualisation du PC en font partie.

De nouvelles solutions apportent une pierre à cet édifice, en proposant de centraliser la diffusion du système lui-même - on parle de « streaming de système d'exploitation » ou de « provisioning dynamique ». L'idée avait été initiée par des petits éditeurs aujourd'hui rentrés dans le giron de deux acteurs importants - Citrix et VMware - dont les produits ont, depuis, été intégrés dans leurs offres.

Chez ces deux éditeurs, le principe est le même : leurs solutions fabriquent un package à partir de l'image d'un système et des applications installées. Puis il met ce package à disposition des machines clientes, sur un serveur. Un détail : alors que le streaming fait habituellement référence à des données poussées par un serveur vers des clients, il s'agit ici de l'inverse. En effet, les clients vont chercher bloc par bloc le code exécutable.

Tout l'article sur ZDNet :
http://www.zdnet.fr/actualites/it-management/0,3800005311,39387917,00.htm

Partager cet article
Repost0
19 mars 2009 4 19 /03 /mars /2009 09:26
Exercice fiscal au 31 décembre 2008
Chiffre d'affaires : 1,765 Md€ (+0,9% à périmètre et taux de change constant, +24,7% à périmètre courant)
Bénéfice net part du groupe : 51,6 M€ (+3,2%)

Steria détaille ses résultats financiers pour 2008, un mois après l'annonce de son chiffre d'affaires annuel (1,765 M€, +24,7%), tiré par l'infogérance, le secteur public et le BPO (business process outsourcing). Confortée par sa bonne intégration de la Britannique Xansa, la SSII française voit son avenir solidement ancré dans les services offshore et nearshore.

« Nous avons signé en 2008 trente nouveaux contrats qui intègrent 100 000 jours de production en offshore », a souligné François Enaud, PDG de Steria, lors de la présentation des résultats. L'an dernier, les effectifs indiens du groupe ont progressé de 11% pour atteindre 5 671 salariés fin 2008 (sur un effectif mondial de 19 141 personnes). Le rythme des embauches dans cette région devrait encore augmenter cette année, a confirmé ce matin le président de la SSII. Cet été, pour ses 40 ans d'existence, le groupe pourrait totaliser autant de salariés sur le sous-continent indien qu'en France où la SSII compte aujourd'hui 6 000 personnes. Dans l'Hexagone, en revanche, aucun plan de recrutement n'est prévu cette année. La SSII se bornera à embaucher des profils spécifiques en fonction des besoins. « On ne recrute plus en masse des ingénieurs comme on l'a fait en 2008 », a confirmé François Enaud.

Tout l'article sur Le Monde Informatique :
http://www.lemondeinformatique.fr/actualites/lire-annuels-gfi-des-resultats-stables-et-un-nouveau-patron-28283.html

Partager cet article
Repost0