News WEB

le 10/04/2008 à 21:38
Free passe sa Freebox au WiFi 802.11n
Iliad, maison mère de Free, confirme aujourd'hui dans un communiqué l'évolution de la Freebox HD, qui adopte un nouveau contrôleur WiFi compatible avec la version préliminaire de la future norme 802.11n. A cette occasion, les antennes extérieures du boitier ADSL de la Freebox disparaissent, au profit d'antennes internes plus discrètes.

Free affirme que ce nouveau contrôleur permettra de profiter de débits jusqu'à cinq fois plus élevés qu'avec le 802.11g, à condition bien sûr de disposer d'équipements compatibles avec le 802.11n. Le CPL (Courant porteur en ligne) reste de la partie pour assurer la liaison entre les deux boitiers qui composent la Freebox HD.

Jusqu'ici, la Freebox v5 se contentait d'un WiFi MIMO, avec lequel les débits et portée permis par la norme 802.11g se voyaient théoriquement augmentés par l'utilisation de plusieurs antennes. Quelques modèles de cette nouvelle Freebox dépourvue d'antennes ont déjà été distribués initialement publiée sur le forum de l'Aduf (Association des utilisateurs de Free).
Les grandes manoeuvres se poursuivent ! Parallèlement à l'ultimatum fixé à Yahoo, Microsoft aurait engagé des discussions avec News Corp dans le but de forcer le portail à se vendre, rapportent le Wall Street Journal et le New York Times dans leurs éditions du 9 avril 2008. Yahoo, de son côté, envisagerait de fusionner ses activités avec celles d'AOL, accès internet excepté. Par ailleurs, la firme dirigée par Jerry Yang serait prête à signer un partenariat publicitaire avec son rival : Google. Aux Etats-Unis, les affaires sont les affaires.

Qui veut gagner quoi ? Pour Microsoft, numéro un mondial du logiciel, il s'agit clairement de s'adosser à un ténor des contenus afin de proposer une offre commune que Yahoo ne pourrait plus refuser. Une fois Yahoo dans le giron de Microsoft/News Corp, la firme de Redmond pourrait enfin bousculer Google, leader du marché des technologies de recherche web et des liens sponsorisés.

De son côté, le magnat australo-américain Rupert Murdoch, actionnaire majoritaire de l'empire multimédia News Corp (Fox, Sky, 20th Century Fox, MySpace, Dow Jones/Wall Street Journal, etc.), cherche à élargir son champ d'action dans le divertissement numérique : des plates-formes communautaires (Yahoo est notamment propriétaire du site de partage de photos FlickR et du réseau social Kickstart) et de la publicité en ligne. Bonne idée ? On sait que Yahoo s'apprête à lancer sa place de marché publicitaire AMP!, fruit de développements internes et d'acquisitions dans le domaine (Right Media, BlueLithium...)

Yahoo, enfin, après avoir rejeté l'offre à 44,6 milliards de dollars présentée par Microsoft début 2008 et qualifié l'offre de sous-évaluée, tente de trouver une alternative auprès d'acteurs du Net. L'objectif de la société internet californienne : négocier un accord de poids avant la fin de l'ultimatum fixé par la firme de Redmond. Comme Yahoo, AOL réorganise ses activités. Ainsi, la filiale de Time Warner se recentre sur les contenus et la publicité (Platform A), d'une part, l'accès internet, d'autre part (AOL pourrait à terme abandonner son activité de FAI outre-Atlantique, comme c'est déjà le cas en Europe).

A travers une telle opération, AOL serait ainsi valorisée 10 milliards de dollars, ce qui permettrait à la société de retrouver des couleurs. Yahoo et AOL formeraient un duo de choc dans la publicité en ligne et les contenus à valeur ajoutée face à Google, acquéreur de DoubleClick. D'ailleurs, avec Google, Yahoo envisage désormais une relation de "coopétition". Ainsi, le portail serait prêt à tester sur les pages de son moteur de recherche des publicités placées par Google. Microsoft a qualifié la démarche d'anticoncurrentielle, comme il l'avait fait à l'annonce du rachat de Google par DoubleClick... Un tournant majeur dans le jeune monde du web se prépare. A suivre !
Sur google.co.uk, les internautes ont la possibilité de chercher sur l'ensemble du web (option par défaut) ou de restreindre aux sites anglais (option pages from the UK). Une étude récente de Hitwise précise qu'ils sont ainsi 13% à choisir cette option. Si votre site ne remplit pas certaines conditions, il risque de ne pas apparaître, ce qui vous prive donc d'autant de trafic ! Explications...

Pour que votre site ait une chance de sortir dans les résultats quand l'internaute coche la case Pages from the UK dans Google, vous avez 3 solutions (remplissez au moins une des conditions suivantes) :
- hébergez votre site dans le UK : Google effectue une géolocalisation basée sur l'adresse IP du serveur qui héberge votre site. Vérifiez avec un outil que votre site se situe bien dans le UK
- choisissez un nom de domaine qui a comme extension .co.uk
- indiquez à Google que votre site vise un public situé au Royaume Uni. Pour cela allez dans Google Webmasters Tools pour indiquer la zone géographique de votre site à Google.

Ca peut paraître simple à première vue, mais en réalité la problématique est plus complexe dès que l'on rentre dans les détails :
- faut-il changer de lieu d'hébergement web ? mais comment faire pour optimiser en même temps pour plusieurs pays ?
- utiliser des extensions de noms de domaine adaptées aux pays c'est simple, mais comment faire pour gérer les langues ? Comment avoir à la fois son site en français sur un .fr et un .be sans risquer de problèmes de contenus dupliqués ?
- comment coder le paramètre de langue dans l'URL : nom de domaine ? sous-domaine ? répertoire ? variable ? cookies ?
Ocsigen est un projet de recherche visant à développer de nouvelles techniques de programmation Web. Il a abouti après plus de trois ans de travail à l'implémentation d'un serveur Web complet et extensible, et d'un module pour programmer des sites dynamiques en utilisant des concepts de haut niveau. Parmi les fonctionnalités-clés, notons :
- la garantie que les pages générées sont en xhtml valide
- le typage des formulaires et des paramètres
- une gestion simplifiée de l'interaction Web à l'aide de concepts dédiés (continuations, etc.).

Ceci est rendu possible par le choix du langage Objective Caml, pour son expressivité et son système de types. Cette version 1 clôt une première phase de développement. Le projet cherche maintenant des contributeurs et développeurs de sites.

- Ocsigen
- OCaml
Virtual Earth, le système d'information géographique de Microsoft, profitera prochainement des images haute résolution de l'Institut national de géographie (IGN). Concédés sous licence pour une durée de cinq ans, ces clichés du territoire français couvriront l'ensemble du territoire, de la métropole aux DOM-TOM, avec une résolution de générale de 2,5m par pixel. Du littoral jusqu'à 45 Km des côtes, la précision montera à 1m par pixel. Les villes de plus de 50.000 habitants profiteront quant à elle d'une définition de 0,5m par pixel.

Après GeoEye et InterAtlas, l'IGN devient donc le troisième fournisseur de données géographiques concernant la France partenaire de Microsoft Virtual Earth. "L'IGN était le seul à pouvoir nous permettre d'obtenir une couverture exhaustive du territoire français, DOM-TOM compris", commente Arnaud Gstach, responsable du développement commercial de Virtual Earth pour l'Europe du Sud. Licenciée sous le nom BD Ortho, l'imagerie aérienne de l'IGN devrait être progressivement intégrée à Virtual Earth, du mois de mai pour l'ensemble du territoire à l'été pour les images en définition supérieure.

Selon les termes de cet accord, Microsoft pourra également disposer pendant les cinq prochaines années d'une licence lui permettant d'exploiter BD Alti, la technologie de modélisation de terrain de l'IGN, qui permettra de représenter, dès l'été prochain, une vue topographique du territoire français. Fort de cette nouvelle base de données d'image, Microsoft continuera de son côté à développer les fonctionnalités qui positionnent Virtual Earth comme une alternative légitime au populaire Google Earth, à commencer par la modélisation en trois dimensions de certains centres urbains, où son mode « Bird's eye view », qui permet d'afficher les vues selon un angle de 45 degrés.

Adressé aux particuliers, qui profiteront bientôt d'une localisation française du moteur de recherche géographique Live Maps, Microsoft destine également Virtual Earth aux entreprises, et revendique en France des accords commerciaux avec TF1 ou Voyages-sncf.com. Selon nos informations, l'éditeur devrait dévoiler vendredi l'introduction de nouvelles fonctionnalités associées aux interfaces de programmation de Virtual Earth, comme la possibilité d'appliquer des textures sur les surfaces des bâtiments en 3D.
Iliad, maison-mère de Free, annonce aujourd'hui l'amélioration de son service de serveur dédié. L'offre Dedibox se compose désormais de deux formules dont les détails suivent :

* Un serveur Dedibox v2, qui possède les éléments suivants :
- un processeur Intel Celeron 220, comportant 512 Ko cache, pour une fréquence de 1,2 GHz
- un disque dur de 160 Go en Serial-ATA 2 utilisant 16 Mo de cache et de marque Hitachi actuellement
- 1 Go DDR2 en ce qui concerne la mémoire vive
- une bande passante de 100 Mbits/sec pour un trafic illimité enfin

* L'offre Dedibox XL se compose elle :
- d'un processeur Intel Core 2 Duo T7200 avec 4 Mo de cache, une fréquence de 2 GHz
- d'un disque dur d'une capacité de 500 Go en Serial-ATA 2 avec technologie PMR et utilisant 16 Mo de cache
- de 3 Go de mémoire vive en DDR2
- d'une bande passante dédiée de 100 Mbits/sec et d'un trafic illimité

Si cette dernière formule est inédite, la première existe déjà depuis plusieurs années. La nouveauté réside en fait dans le changement de processeur, le CPU VIA C7 faisant place à un Celeron 220 dans le cadre d'un partenariat entre Iliad et Intel et pour des performances doublées selon Iliad. D'après quelques tests publiés sur le Net, il semblerait que ce soit le cas, notamment au niveau du calcul CPU (l'utilitaire Super Pi a été utilisé pour ce test). Au niveau de la consommation électrique, les 19 W de TDP (enveloppe thermique) du Celeron sont légèrement inférieurs aux 20 W associé au processeur VIA et Iliad annonce même une consommation globale de 45 W pour ses serveurs XL.

Commercialisées par défaut sous Linux (et la distribution Gentoo 2007.0), ces deux nouvelles Dedibox pourront également accueillir des logiciels Microsoft grâce à un "pack étudiant", permettant d'installer sans surcout et sans limitation de durée Windows Server 2008, Microsoft Visual Studio 2008, Microsoft Expression Studio, SQL Server 2005, Developer Edition, Microsoft Office Visio 2007 ou encore Microsoft Office Project 2007. Cette offre, qui s'accompagne d'un mois gratuit, n'est toutefois valable que pour un inscription avant le 25 avril 2008.

Les plates-formes à base de processeur Via ne sont d'ors et déjà plus disponibles à la location et iliad annonce conserver la maintenance de ces serveurs jusqu'en septembre 2009. Les conditions de migration ne sont pour l'instant pas connues. Ces deux solutions sont en location respectivement à 29,99 euros HT et 49,99 euros HT, l'option RAID étant proposée à 9,99 euros HT. Une offre intéressante qui reste néanmoins légèrement plus chère que les serveurs Kimsufi d'OVH (pour quatre fois plus de mémoire vive tout de même), également sous Intel Celeron (cadencé à 2,6 GHz), et qui devra également faire face à la concurrence de l'hébergement à la demande de Gandi, Amazon (EC2) voire de Google avec son App Engine.
Tous filmés ? Qui va contrôler ? La Commission nationale informatique et libertés (CNIL) a annoncé, mardi 8 avril 2008, avoir adressé une note à la ministre de l'intérieur, Michèle Alliot-Marie, sur la nécessité d'assurer un "contrôle indépendant" des systèmes de vidéosurveillance. Relayée par l'AFP, cette information faite suite au souhait du gouvernement de tripler le nombre de caméras, pour atteindre les 30.000 dispositifs dans les rues, afin, officiellement, de lutter contre le terrorisme.

La CNIL qui est chargée de protéger les libertés individuelles face à l'explosion des stockages de données personnelles aurait reçu 1400 déclarations (installation, demande de conseils et plaintes) en 2007, contre seulement 300 en 2005.

"La question du contrôle, par un organisme véritablement indépendant, des dispositifs de vidéosurveillance, autrement dit 'le contrôle des surveillants', constitue désormais, dans les sociétés démocratiques modernes, une exigence fondamentale, nécessaire pour asseoir la légitimité du développement de ces systèmes, offrant les meilleures garanties de prise en compte des droits et libertés des personnes", souligne la CNIL. La Commission vante ainsi ses "garanties d'indépendance fortes", puisque l'exécutif ne nomme que 3 de ses 17 membres et que "la loi prévoit qu'elle ne reçoit d'instruction d'aucune autorité".

Problème : la loi du 21 janvier 1995 soumet les systèmes de vidéosurveillance visionnant les lieux ouverts au public à une autorisation préfectorale. Tandis que la loi "informatique et libertés" du 6 janvier 1978, modifiée en 2004, réglemente ceux installés dans un lieu non ouvert au public, comme une entreprise, ou encore les systèmes implantés dans les lieux publics lorsqu'ils sont couplés à une technique biométrique (de reconnaissance faciale par exemple).

"Face à cette situation d'incertitude, voire d'insécurité juridique, la CNIL estime nécessaire de clarifier rapidement le régime juridique actuel de la vidéosurveillance". Outre le passage au tout numérique autorisant le stockage des données ou l'apparition de logiciels "d'analyse intelligente" détectant des "comportements suspects", un arrêté du 26 septembre 2006 imposant le respect de normes techniques, permettrait à terme "l'interconnexion et la centralisation des images à des fins policières".

Pour alimenter sa réflexion, la CNIL a confié à l'institut Ipsos la réalisation d'une étude sur l'opinion des Français à l'égard de la vidéosurveillance. Réalisée du 14 au 17 mars 2008 auprès de 972 personnes, ce sondage confirme qu'une large majorité de Français (71%) se déclare favorable à la vidéosurveillance dans les lieux publics et que 65% d'entre eux estiment qu'elle permettra de lutter efficacement contre la délinquance et le terrorisme. D'autre part, l'idée que les dispositifs de vidéosurveillance soient placés sous le contrôle d'un organisme indépendant, pour parer à toute dérive, séduit une large majorité des Français (79%).

Reste donc aux pouvoirs publics à compléter les financements, pour assurer, sans plus attendre, un contrôle fiable et indépendant des systèmes de surveillance. Même si, quel que soit l'organisme en charge de la tâche, la volatilité des données semble problématique pour mettre en oeuvre la "vidéoprotection" évoqué par Michèle Alliot-Marie.
Attendue de longue date, la vidéo fait cette semaine son entrée sur le service d'hébergement de photos Flickr, aujourd'hui propriété de Yahoo. L'objectif affiché n'est cependant pas de s'inscrire comme un nouveau concurrent pour les YouTube et autres Dailymotion : les vidéos sont limitées à une durée de 90 secondes, et sont pour l'instant réservées aux utilisateurs de comptes Pro, la version payante du service (25 dollars par an).

L'idée, explique Flickr, est de ne pas dénaturer le service : les amateurs de photo qui viennent sur le site y consulter des clichés ne souhaitent vraisemblablement pas se voir pollués par des milliers de vidéos hétéroclites. Pour autant, l'équipe qui préside aux destinées du service estime que de courtes vidéos lui confèreront une certaine valeur ajoutée.

"Nous ne voulons pas brider votre créativité artistique, nous essayons juste de créer quelque chose de nouveau", explique Flickr dans sa FAQ. "L'intégration de vidéos sur Flickr repose sur l'idée de "longue photo", c'est pourquoi nous avons choisi de limiter la lecture des vidéos aux 90 premières secondes même si cela peut paraître un peu arbitraire".

Si l'envoi de vidéos est limité aux utilisateurs de comptes Pro, les contenus hébergés peuvent ensuite être consultés par le tout venant, via un lecteur Flash. Sur le plan technique, Flickr précise qu'il est possible d'uploader des vidéos allant jusqu'à 150 Mo, mais que seules les 90 premières secondes seront lues. Le formulaire d'envoi accepte les formats AVI, WMV, MOV, MPEG 1, 2, 4 et 3gp.
Le bureau du haut commissariat des Nations Unies pour les réfugiés a publié au travers de Google Earth des informations pour sensibiliser le grand public sur certains sujets humanitaires. Ce projet met notamment en avant les camps de réfugiés, mais également les points/lieux liés à l'éducation, à l'actualité et à la santé. Notons aussi des informations relatives aux réseaux de distributions et d'accès à l'eau potable. Le tout est associé à des articles et à des photos/vidéos. Pour activer l'accès à ces informations dans Google Earth, il suffit d'ajouter ce fichier.

Dans ce registre, on peut également citer les nouvelles couches d'informations pour Google Earth liées aux sujet suivants : droits de l'homme, Greenpeace et US Holocaust Memorial Museum. Elles peuvent être activités par le biais de la fenêtre "infos pratiques" à la rubrique "sensibilisation mondiale".
Un an après que l'Autorité de régulation des télécoms a lancé un avertissement aux fournisseurs d'accès à Internet français, ces derniers auraient selon l'UFC Que Choisir accepté de signer une convention visant à limiter les conséquences du "slamming" sur leurs abonnés. Cette pratique, qualifiée de "sport national" par l'association de consommateurs, consiste à profiter de l'établissement d'un nouveau service télécom pour écraser les installations et services d'un concurrent.

Le slamming est plus exactement défini de la façon suivante par l'Arcep : "Quand un client, déjà abonné à un ou plusieurs services fixes (téléphone, accès DSL Internet, etc.), souscrit un abonnement auprès d'un autre opérateur, l'établissement de ce nouveau service peut éventuellement venir "écraser" un service précédent. On parle d'écrasement "à tort", lorsqu'un écrasement a lieu sans que le client ait souscrit un quelconque abonnement auprès d'un nouvel opérateur".

Selon les termes de cette convention, les FAI signataires s'engagent à rétablir en trois jours maximum et sans frais la connexion d'un internaute dont la ligne aurait été écrasée. Une pénalité de quelques centaines d'euros pourrait également frapper les opérateurs convaincus de slamming, de façon à les responsabiliser.

Préjudiciable à l'internaute, qui risque de se retrouver pendant plusieurs jours sans connexion à Internet en cas d'écrasement, le slamming est également source de problème pour les opérateurs qui parfois écrasent une ligne en croyant bien faire. "Par exemple un client tiers peut se tromper dans la saisie de son numéro de téléphone au moment de la commande en ligne d'un nouveau service et renseigner votre numéro de téléphone. Si cette erreur n'est pas détectée, la commande est passée et automatiquement réalisée, ce qui entraîne l'écrasement à tort de vos services", explique l'Arcep.

La signature de cette convention leur permettra peut-être de formaliser les processus de création ou d'installation de ligne, de façon à ce que le nombre d'incidents recensés diminue.
LoadingChargement en cours