Canalblog
Suivre ce blog Administration + Créer mon blog

Lectures et réflexions personnelles

9 octobre 2005

Les technologies de l'information en 2010 : prospective

La FING (Fondation Internet Nouvelle Génération) et l'Irepp (Institut de Recherches et Prospective Postales) ont entammé la publication d'une analyse prospective des TIC à l'horizon 2010-2015.

Sous le titre PROSPECTIC 2010 ce document est publié progressivement, chapitre par chapitre, sur le site de la FING ; à terme, l'étude complète sera téléchargeable.

Le site de la FING est http://www.fing.org.

Chacun peut également réagir et contribuer à l'analyse, en participant à la fin de chaque chapitre.

L'analyse Propsectic 2010 est actuellement constituée des chapitres suivants :

- Introduction
- Quelques liens et sources essentiels
- Un exercice collectif de prospective technologique
1.1 - Les technologies de base : puissance et miniaturisation
1.2 - Le traitement
1.3 - Les communications (1)
1.3 - Les communications (2)
1.4 - Les mémoires
1.5 - Gestion de l'énergie

 Viendront ensuite les thèmes :

Robots, agents, objets "intelligents" et communicants
Les interfaces homme-machine-environnement
Gestion de l'information et de la connaissance
Confiance et sécurité
Zoom : paiement et monnaie électronique

2- Une vision de plus en plus fédératrice : le "courant informationnel"
Le réseau omniprésent
L'intelligence enfouie
Des produits aux services
Des bits aux atomes
La grande transformation du "contenu" L'utilisateur-producteur
Quelle régulation pour les réseaux et leurs usages ?
3- Enjeux et incertitudes
Centralisation / Décentralisation
Simplicité / Pouvoir
Libre / Propriétaire
Sécurité / Ouverture
Automatique / Humain
Proximité / Distance
Innovation/Ethique

Publicité
2 octobre 2005

Une calculatrice universelle

Découvert sur l'Internet (mais aussi dans le numéro 388 du 22 septembre 2005 de Micro Hebdo), une calculette professionnelle qui remplacera très largement celle de Windows. On la télécharge à  http://www.1dustrie.com/khi3.msi.

Outre les fonctions habituelles (fonctions numériques élémentaires, fonctions trigonométriques) elle offre une impressionnante panoplie de fonctions professionnelles et pédagogiques.

On trouvera par exemple, des calculs trigonométriques et hyperboliques, la résolution d'équations polynomiales jusqu'au trosième degré, des calculs sur les nombres complexes, la conversions de nombres antre bases 2, 8, 10, 16 et au delà jusqu'à 36.

Mais aussi divers calculs sur les dates (numéro de semaine, équivalence entre calendriers), conversion des devises européennes, équivelences entre ville et code postal (en France).

Et ce n'est pas fini : on trouve des accessoires pédagogiques en astronomie (position des planètes), en géométrie (le triangle est ses propriétés  sous forme intéractive, diverses formes de courbes), analyse (tracé de fonctions), en physique et chimie (tableau périodique des éléments).

La version standard est gratuite. On regrettera sans doute qu'elle soit livrée avec... 24 jeux différents. Une version professionnelle est également disponible, au prix de 25€.

1 octobre 2005

Les FAI se sucrent sur les files d'attente

A la demande du ministre de l'Industrie de ne pas facturer les temps d'attente lors des appels à la "hotline", les fournisseurs d'accès à l'Internet rétorquent que cette mesure provoquerait pour eux un manque à gagner de 15 à 20 millions d'Euros (Les Echos, 30 septembre 2005).

Quel aveu !

Comment mieux avouer que la facturation des files d'attente fait partie des revenus de ces fournisseurs ? N'est-ce pas un cas unique où les consommateurs doivent payer, en plus du service, le temps passé à attendre, souvent de façon interminable ? Et comment ne pas penser que les délais sont volontairement allongés pour augmenter les revenus ?

1 octobre 2005

SKYPE banni des établissements universitaires français

Lu (entre autres) dans Le Monde du 1er octobre 2005 :

L'installation du logiciel Skype est désormais interdite, pour raisons de sécurité, dans les universités et les laboratoires publics français.

Même s'il est utilisé par plus de 50 millions d'internautes, c'est un logiciel dont le mode de fonctionnement est suffisament peu transparent pour considérer qu'il présente des risques potentiel sur les informations qu'il fait circuler.

**
On peut penser que cette mesure est justifiée d'une part par les modalités de fonctionnement de Skype, qui s'affranchit largement des protections assurées par les firewalls, permettant par exemple la circulation de fichiers porteurs de virus et autres logiciels malins.
Mais on reproche aussi sans doute à Skype de faire transiter les communications par des serveurs propriétaires sur lesquels tout est possible à l'insu des internautes. Rien ne prouve en effet que les communications entre adeptes de Skype ne sont pas interceptées (ou susceptibles de l'être).

20 octobre 2003

Microsoft cherche à vendre ses produits serveurs grâce à la bureautique

"Gare au piège de l'intégration verticale", Carte blanche de Louis Naugès dans 01 Informatique, numéro du 20 octobre 2003

Louis Naugès attire l'attention des entreprises sur le risque de l'intégration poussée préconisée par certains éditeurs, et en particulier par Microsoft avec l'arrivée de Office 2003.

Les nouvelles fonctions de protection des documents, proposées par le nouveau service IRM (Information Rights Management) ne pourront être disponibles que si l'entreprise installe Windows Server 2003.

Et de rappeler que Microsoft avait déjà tenté une opération similaire ave Exchange 2000 qui obligeait à passer sous Windows Server 2000 et à passer l'annuaire sous Active Directory.

Les produits décisionnels intégrés aux PGI ne font pas mieux, en n'analysant que ce qui vient du PGI.

Un conseil : rester maître de ses choix, sans nécessairement passer au "tout intégré".

Publicité
30 septembre 2003

Etudiants : 30$ pour débarrasser sa machine des virus

Article dans Chronicle of Higher Education, 3 septembre 2003

L'université de North Texas a trouvé un moyen inhabituel pour lutter contre l'invasion du virus Blaster sur les ordinateurs personnels des étudiants.

Elle facture 30$ le nettoyage des ordinateurs infectés par le virus. Solution destinée à couvrir les frais occasionnés, qui n'avaient pas été budgétés.

Il faut dire qu'un ordinateur sur sept (sur les 6000 ordinateurs utilisés sur le réseau des résidences) se trouvait infecté, en moyenne à peine 15 minutes après s'être connecté au réseau.

10 juillet 2003

Un USB 2.0 peut en cacher un autre

Article dans 01 Informatique, n0 1731, 4 juillet 2003

Dans la confusion, l'USB Forum renomme ses standards pour tenter d'éclaircir le marché, mais sans y parvenir.

On avait à l'origine :
- USB 1.1 limité à 12 Mb/s
- USB 2.0 jusqu'à 480 Mb/s

Mais l'USB 1.1 a été renommé USB 2. Créant ainsi deux standards USB 2, distingués par "full speed" ou "hi speed". Pas vraiment clair.

Suite aux abus des constructeurs qui ont profité de ce flou, l'USB Forum recommande que les périphériques USB 2.0 soient labellisés "Hi speed USB", les autres conservant le titre USB tout court. Pas beaucoup mieux en terme de clarté.

10 juillet 2003

Wi-FI se prépare aux excès de vitesse

Article dans 01 Informatique, n0 1731, 4 juillet 2003

Le groupe de travail 802.11n veut accélérer l'Ethernet sans fil, avec des débits réels 30 fois supérieurs à celui du 802.11b, jusqu'à 320 Mb/s.
Le groupe de travail oeuvre au niveau physique pour limiter les déperditions et augmenter avant tout le débit réel proposé aux utilisateurs. Avec d'abord de nouveaux algorithmes de compression, une meilleure gestion des erreurs et des interférences, et une nouvelle technologie d'antenne.
Le 802.11n espère ainsi obtenir d'abord des débits réels de 100 Mb/s pour atteindre à terme les 320 Mb/s. Applicables à la fois dans les bande de 2,4 et 5 Ghz, ces améliorations concernent le 802.11g et a, garantissant une compatibilité ascendante.

Attention toutefois : le groupe de travail vient de se constituer et les spécifications 802.11n ne devraient pas être finalisées avant 2005 ou 2006.
A noter également, que la comparaison des normes 802.11 en termes de débits théorique s'apparente de plus en plus à la comparaison des processeurs en ne considérant que leurs fréquences. Ainsi, le 802.11g autorise des transferts plus rapides ou sur de plus longues distances que le 802.11a (21Mb/S contre 16Mb/s réels dans un rayon de 3 mètres) alors que tous deux affichent un débit théorique de 54 Mb/s.

10 juillet 2003

Point de vue: pourquoi les DSI devraient adopter la gouvernance

Article dans ZdNet week, n° du 30 juin au 13 juillet.

Dans un contexte de réduction de coûts et d'effectifs, les DSI peuvent améliorer les résultats en tentant d'utiliser les principes de la gouvernance informatique, tels que ceux des modèles ITIL et COBIT.

Les directeurs informatiques doivent faire face à de nombreux défis en 2003 : améliorer le retour sur investissement, les niveaux de services offerts et la sécurité, sans que leurs budgets ou leurs effectifs augmentent. Comment atteindre ces objectifs en étant soumis à de telles contraintes budgétaires?
Il faut modifier en profondeur la gestion des départements informatiques et adhérer à une nouvelle approche désignée sous le terme de "gouvernance informatique". La gouvernance informatique va devenir
aussi importante que les infrastructures ou les applications. Et sans doute d'autant plus dans le contexte actuel, qui oblige les directeurs à faire plus avec moins.

Entre 1995 et 2000, l'accent était mis sur la vitesse de déploiement, même si c'était au détriment de la qualité ou au prix de compromis. Il en a résulté différents problèmes: dépassements de date ou de coûts , failles de sécurité, indisponibilité imprévue des services...
La gouvernance informatique vise à corriger ces mauvaises habitudes. Elle est fondée sur des processus de grande qualité, bien conçus et utilisables de façon répétitive. Plus précisément, ce système met en avant des méthodes et des procédures, impose une documentation méticuleuse et établit un plan d'amélioration constante.

Il existe plusieurs modèles de gouvernance informatique solidement implantés. Le plus populaire est l'IT Infrastructure Library (ITIL), élaboré par l'autorité gouvernementale des technologies de l'information
et des télécommunications du gouvernement britannique. Ce modèle s'est répandu en Europe, et commence également à gagner l'Amérique du nord. Il définit un ensemble de pratiques dans 24 domaines.

Le COBIT (Control Objectives for Information and related Technology) est un autre exemple de gouvernance informatique bien établie. Il a été créé pour aligner les ressources et les méthodes informatiques avec les objectifs commerciaux, les standards de qualité, les contrôles de coût et les impératifs de sécurité.

De nombreuses organisations ont adopté les procédures ITIL et COBIT et ont obtenu des résultats quantifiables. Procter & Gamble a choisi le modèle ITIL en 1997 qui, affirme-t-il, lui a permis d'économiser plus de 500 millions de dollars en quatre ans. Une étude des économies réalisées dans les services financiers et comptables de l'entreprise a mis en valeur une baisse de 6 à 8 % des coûts de fonctionnement, et une réduction des équipes du secteur technologique située entre 15 et 20%.
Le gouvernement de l'Ontario a également adopté la procédure ITIL. La province canadienne avait besoin d'améliorer des services concernant 25000 utilisateurs répartis dans 1000 secteurs. En adoptant le modèle ITIL, le gouvernement a créé un bureau de service virtuel qui a amélioré la réactivité et diminué les problèmes techniques. Et il a fait baisser lescoûts de maintenance de 40%.

Le modèle COBIT peut également s'enorgueillir d'un glorieux palmarès : l'État du Kansas utilise les standards COBIT dans le cadre de sa stratégie de gouvernement virtuel. L'objectif est de conserver des coûts réduits et d'offrir des services conséquents aux utilisateurs. Dell Computer a intégré des éléments COBIT à sa politique Control Self Assessment (CSA), visant à produire un audit de gestion susceptible d'aider la société à maintenir un haut degré de qualité.

10 juillet 2003

Un courrier de ministre, ou comment lutter contre le spam

Article dans Décision Micro, n° 557 le 30/06/2003

Après le café du matin... la lecture des mails. Le rituel est devenu immuable. Seulement voilà, il devient de plus en plus difficile d'isoler les messages professionnels des courriels parasites. Le spam a rapidement contaminé notre serveur de mails : certains de mes collaborateurs attribuent à ce dernier plus de la moitié des mails reçus ! Au palmarès, des sites exotiques, des ventes en ligne de produits de tous genres, des news et, plus rarement, des liens vers des sites hors la loi.
Notre première tentative pour contrer cette invasion a été de mettre en place un logiciel anti-spam chargé de black lister les expéditeurs douteux.
Mauvaise pioche : un important contact de notre direction s'est retrouvé interdit de séjour sur notre serveur pour avoir employé des termes jugés douteux par notre applicatif. Second réflexe : les logiciels libres. Mais ils n'apportent que peu de différences par rapport à la première solution.
Nous avons alors suivi les conseils d'un site antispam qui nous suggérait de répondre par un mail type aux spammeurs.
Cette initiative s'est traduite par une augmentation en flèche de la quantité de mails reçus ! Il ne restait qu'une chose à faire : ne rien faire et demander aux utilisateurs de limiter eux-mêmes les dégâts en supprimant les mails sans les ouvrir. Cette demi-solution totalement empirique est assez paradoxale : d'une part, elle est contraire aux prérogatives du service informatique, qui par définition sait tout faire mieux que les autres, d'autre part, c'est elle qui à ce jour a donné le plus de résultats. En attendant, nous continuons à chercher le logiciel miracle. Alors messieurs les éditeurs : au boulot !

M.Purple@decisionmicro.com

MM. Red, Green, Yellow et Purple sont cadres dans des services informatiques. Chacun leur tour, ils vous feront partager le fruit de leurs expériences.

Publicité
1 2 > >>
Lectures et réflexions personnelles
Publicité
Archives
Publicité