News WEB

Nous vous en parlions mardi dernier, cette semaine le hacker Albert Gonzalez est passé en procès pour les crimes financiers qu'il a commis en 2006. Au mois d'août 2008, les autorités fédérales américaines l'avaient arrêté avec onze autres personnes, toutes accusées d'avoir détourné plus de 41 millions de comptes bancaires. A la tête de ce réseau de fraude, il avait avoué un an plus tard avoir piraté plus de 130 millions de numéros de cartes bancaires en se faufilant sur les serveurs de plusieurs sociétés.

L'avocat de l'accusation avait demandé une sentence exemplaire de 25 ans de prison ; une requête justifiée par le fait que le jeune homme de 28 ans se trouvait au coeur de "l'une des plus grosses et plus coûteuses séries de vol d'identité de l'histoire du pays".

Au terme du procès qui s'est déroulé hier jeudi 25 mars 2010, Albert Gonzalez a finalement été sanctionné à 20 ans de prison. Suite à une indulgence demandée par le pirate, le juge a tenu compte du dossier de la défense mettant en lumière le passé d'alcoolique et de toxicomane ainsi que les conditions médicales de l'accusé décrivant une légère forme d'autisme.

Ces cinq années gagnées pourraient cependant être vite perdues puisque Albert Gonzalez doit prochainement comparaître pour une autre affaire de piratage au sein de laquelle il a avoué avoir détourné plusieurs autres dizaines de millions de cartes de crédit via les serveurs de plusieurs chaînes d'épiceries et supermarchés.
Lancé en mars dernier pour certains annonceurs en version bêta, le service de remarketing de Google AdWords va désormais être ouvert à tous. Avec un exemple à la clé sur le blog d'AdWords : « Vous êtes une compagnie de voyage, et vous essayez de vendre des séjours dans les Caraïbes pendant la période de vacances. Les utilisateurs peuvent venir vers votre site, regarder les offres et réserver un trajet. » Mais voilà, il arrive que ces internautes décident au dernier moment de ne pas se lancer, parce que le prix est trop cher par exemple. Imaginons que quelques jours plus tard, vous ayez des offres moins chères. « Comment atteignez-vous ces utilisateurs qui ont déjà exprimé un intérêt pour les voyages dans les Caraïbes ? »

Habituellement, avec le système AdSense classique, l'internaute n'a accès à ces publicités ciblées qu'en fonction du contexte de navigation. Il est sur un site de voyage, il aura des publicités vantant ces séjours aux Caraïbes. Mais s'il est ailleurs sur le web, des blogs ou un site culinaire par exemple, le lien avec l'annonceur voyagiste est rompu. Problème : comment le site annonce-t-il à cet internaute qu'il a désormais en stock ce qu'il cherchait une semaine plus tôt ?

Evidemment, Google a la réponse : avec le remarketing, les publicités AdSense affichées vont s'adapter non seulement au contenu de la page en train d'être visitée, mais aussi aux centres d'intérêt déjà exprimés dans le passé par l'internaute. Google affirme avoir eu des retours très positifs de ses bêta-testeurs (des annonceurs de l'industrie automobile, des commerçants locaux ou des banques, essentiellement). « Le remarketing a bien fonctionné, que ce soit pour améliorer la visibilité d'une marque, générer des clics et des ventes, ou pour afficher une publicité en texte (faisant la promotion d'un produit, sans pouvoir l'acheter en ligne par exemple). »

Cette nouvelle fonctionnalité s'avère donc très puissante, et pousse un peu plus la stratégie de ciblage des annonceurs en ligne chez Google. La technique de remarketing de Google est en fait du retargeting, ou reciblage publicitaire, qui permet d'afficher des publicités en fonction des actions passées qui n'ont pas été suivies d'un acte d'achat. Une étude de Networkadvertising vient de sortir, qui confirme l'intérêt du ciblage en général, et du reciblage en particulier. Si le coût pour mille pages vues du retargeting est nettement plus cher que de la publicité non ciblée (3,07 dollars pour l'année 2009 contre 1,98 dollars), il reste globalement moins cher que pour le ciblage (4,12 dollars en 2009). Networkadvertising explique cette différence entre ciblage et reciblage par les prestations : le ciblage nécessite une collecte et une analyse des données en ligne, alors que celles du reciblage proviennent en général directement de l'annonceur, dont le site a déjà été visité par l'internaute. Par ailleurs, ciblage et retargeting sont clairement plus intéressants que la publicité Run of network (sans la valeur ajoutée du ciblage), puisque le taux de conversion en acte d'achat est de 6,8%, pour 2,8% dans le cas d'une publicité non ciblée.

Côté internaute, maintenant, la question qui ne va pas manquer de surgir est celle de la vie privée. Car pour permettre le retargeting, il ne suffit plus d'un affichage en contexte, et donc de récupérer les mots clés recherchés dans un moteur ou les thèmes abordés par un site spécialisé, mais de gérer des cookies et des bases de données personnalisées selon l'utilisateur, sur le long terme. Google, régulièrement attaqué sur cette question, a souhaité désamorcer la critique en mettant en place une page permettant de supprimer certains centres d'intérêts stockés dans le cookie traceur, voire de désactiver complètement le suivi de l'internaute par l'agence publicitaire DoubleClick (appartenant à Google). Un clic sur le bouton amène alors à une page de téléchargement d'un plugin, qui désactive le cookie.

Le service est désormais ouvert à tous les annonceurs en passant par l'onglet « Audiences » d'AdWords. Plusieurs régies publicitaires en ligne utilisent déjà cette technique, mais l'étendue des parts de marché de Google AdSense pourrait faire la différence. AdWords annonce dans son blog que « les annonceurs vont pouvoir atteindre les utilisateurs alors qu'ils surfent sur n'importe quel site du réseau de contenus Google » (l'ensemble des sites qui diffusent des publicités Google AdSense, et qui touche 75% des internautes mondiaux, selon ComScore). Pour le blog d'AdWords, « le remarketing est une façon simple d'être en contact avec les utilisateurs, en fonction des interactions passées sur votre site web ».
En attendant que le HTML5 ne soit finalisé et démocratisé, Dailymotion procède à une petite mise à jour de printemps en lançant aujourd'hui un nouveau lecteur de vidéo. Sans surprise, celui-ci repose à nouveau sur la technologie Flash qui, si elle a de nombreux détracteurs, lui reprochant tout particulièrement et à juste titre son aspect propriétaire et sa forte consommation de ressources, reste à ce jour la solution la plus répandue et la plus interopérable. Dailymotion emboite ainsi le pas à YouTube qui a récemment déployé successivement un nouveau lecteur et une nouvelle mise en page pour la page vidéo.

Le nouveau lecteur de Dailymotion joue dans la sobriété. Il se fait plus discret en n'apparaissant qu'au survol de la souris, en surimpression de la vidéo affichée. La barre principale se contente désormais du strict minimum. On y retrouve le bouton lecture/pause, la barre de défilement et ses compteurs, le bouton plein écran et le bouton de réglage du volume, qui n'est plus accessible directement mais fait désormais appel à un sous-menu.

Les fonctions annexes sont accessibles par de gros boutons s'inscrivant dans la tendance actuelle. Les différentes qualités de diffusion (standard, haute qualité ou, le cas échéant, haute définition) sont accessibles par le biais d'un bouton, tout comme le sous-titrage. Le bouton export donne quant à lui accès au code du lecteur embarqué, au lien vers la vidéo ou à la fonction "hotspot", qui donne un lien faisant démarrer la vidéo à un moment précis. Un bouton "snap" permet d'ailleurs de choisir l'image apparaissant par défaut avant le démarrage de la lecture. Les boutons de partage sur Facebook et Twitter complètent enfin cette barre annexe.

Dailymotion simplifie donc l'expérience utilisateur, au détriment de certaines fonctions qui encombraient certes l'affichage mais qui étaient jusqu'à présent plus accessibles. Quoi qu'il en soit, chacun peut d'ores et déjà se forger sa propre opinion en consultant la vidéo de démonstration de ce nouveau lecteur.
Un débat avant une loi ? A quelques jours d'un colloque organisé par l'Arcep, les représentants de l'Association des Services Internet Communautaires (Asic) tenaient jeudi matin une table ronde dans les locaux de Google France, dans le but de poser les bases du débat soulevé par la question de la Neutralité du Net. Une thématique complexe, dont les enjeux éthiques et économiques suscitent des prises de position tranchées, notamment entre les éditeurs de services en ligne et les opérateurs. Les premiers appellent à un encadrement du secteur.

La neutralité du Net, qu'est-ce que c'est ?

Si les projets de loi Hadopi, Loppsi ou jeux d'argent en ligne ont porté la question sur le devant de la scène spécialisée, la notion de neutralité du Net n'est pas neuve. Le principe aurait en réalité été popularisé aux Etats-Unis en 2003, rappelle Benoît Tabaka, directeur juridique de PriceMinister et secrétaire de l'Asic. Il suppose que l'on exclue toute discrimination à l'égard d'un contenu, de sa source, ou du moyen de communication exploité pour y accéder. Sur les réseaux, les données doivent donc être transférées sans modification et sans qu'un protocole soit privilégié par rapport à un autre.

Un Internet ouvert et neutre est la garantie d'une « innovation sans permission », se plait à affirmer Olivier Esper, directeur des affaires institutionnelles chez Google France, selon qui « un environnement concurrentiel maximise les retombées économiques des réseaux dont on dispose ». Autrement dit, impossible pour une société naissante d'émerger si elle n'a pas les mêmes garanties de visibilité et d'accessibilité sur le réseau que les acteurs déjà en place et impossible de développer un modèle économique innovant si l'on butte sur une régulation arbitraire du réseau par un opérateur.

Une problématique que connait bien Skype dans le domaine du mobile puisque que, contrairement aux Etats-Unis, il n'est pas officiellement permis en France d'utiliser son service de voix sur IP à partir d'un abonnement mobile à Internet. Une discrimination, valable également pour le P2P ou les newsgroups, qui n'a pas lieu d'être pour Jean-Jacques Sahel, responsable des affaires gouvernementales et juridiques de Skype en Europe. « Attention à ne pas revenir à l'époque des bouquets câble », lance-t-il, rappelant ces forfaits avec lesquels seul l'accès au service était garanti, tout contenu supplémentaire faisant l'objet d'une option payante.

Neutralité contre financement des réseaux ?

Giuseppe de Martino, président de l'Asic et directeur juridique de Dailymotion, rappelle l'un des premiers cas concrets où s'est posée la question de neutralité des réseaux en France. En 2007, l'hébergeur peine à s'accorder avec Neuf Cegetel sur leur politique de peering, cette pratique qui consiste à consiste à connecter directement l'infrastructure d'un site au réseau d'un opérateur de façon à améliorer la qualité de service pour les internautes. Du fait de l'importante consommation induite en bande passante, les opérateurs estiment bien souvent qu'une compensation financière serait légitime. Faute de solution satisfaisant les deux parties, Neuf Cegetel avait alors bridé la bande passante accordée à Dailymotion, entrainant un ralentissement du site chez ses abonnés.

S'ils concèdent qu'un opérateur doit pouvoir gérer le trafic sur son réseau, notamment pour éviter les risques de congestion, les éditeurs de service refusent que cet argument soit employé pour déterminer à quel service les internautes peuvent avoir accès et redoutent que ceux qui sont également fournisseurs de contenus en profitent pour favoriser leurs propres offres. « Si un opérateur veut accorder des priorités à certains contenus sur son réseau, il devrait avoir à prouver qu'il a un réel problème », ajoute Edouard Barreiro, de l'UFC Que Choisir.

S'ajoute la délicate question du financement des infrastructures, auquel certains verraient bien contribuer les services les plus gourmands en bande passante. « 40% de nos coûts vont déjà dans les investissements en bande passante et en stockage de données », rappelle Dailymotion.

Tous appellent donc à un arbitrage juste, tenant compte aussi bien des intérêts de l'opérateur que celui du service en ligne. « Le débat peut se résumer à la question suivante : jusqu'où est-on prêt à aller pour correctement gérer, au bénéfice du consommateur, les réseaux ? », résume le sénateur Bruno Retailleau.

La question sera largement débattue le 13 avril prochain à l'Arcep, tandis que s'organise la mission de réflexion sur le sujet commanditée par Nathalie Kosciusko-Morizet, secrétaire d'Etat au développement du numérique. Deux étapes à l'issue desquelles se tiendra sans doute une consultation publique, prélude à une loi que tous les présents jugeaient, jeudi, indispensable.
Dans l'une de ses dernières dépêches, l'Associated Press rapporte que la police de Scotland Yard souhaite apporter plus de contrôle sur les pratiques des internautes se rendant dans les cyber-cafés. Cette initiative viendrait directement de la stratégie anti-terrorisme mise en place par le gouvernement britannique.

Si l'un des policiers interrogés par AP explique : "on ne demande pas aux gérants d'espionner leurs clients", ces derniers sont tout de même invités "à vérifier de temps en temps l'activité du disque dur". Cette pratique serait par exemple opérée en analysant l'historique de navigation d'un client ou en consultant son dossier de téléchargement. En plus de ces conseils, les gérants de cyber-cafés ont également reçu plusieurs posters et fonds d'écran représentant le logo de Scotland Yard... de quoi semer le trouble chez le client.

Ces recommandations ne sont pas pour plaire au groupe Privacy International, l'équivalent de la CNIL en France, et chargé de surveiller le bon respect de la vie privée des citoyens. Simon Davies, directeur de l'organisation, explique ainsi : "on finira par se retrouver avec beaucoup de gens qui porteront des accusations sur des Musulmans". Il ajoute : "on ne voudrait pas que nos conversations téléphoniques soit surveillées, il devrait en être de même pour nos conversations par courrier électronique".

Reste à savoir si ces mesures en resteront au stade de la recommandation ou si les autorités tenteront de responsabiliser les gérants de cyber-cafés comme ils l'ont fait pour les fournisseurs d'accès à Internet locaux.

En France, dans le cadre du projet de lutte contre le terrorisme, un décret est paru le 24 mars 2006 dans le Journal Officiel expliquant que les FAI, les opérateurs télécoms et mais aussi les propriétaires de cybercafés doivent conserver leurs archives de connexion pendant un an. Cette mesure vise à simplifier "l'identification des membres de ces réseaux et des menaces terroristes".
Pour la première fois, le volume des échanges de données effectués à partir des réseaux mobiles aurait dépassé le trafic que représente l'activité voix sur le mois de décembre 2009, a affirmé cette semaine Ericsson. Sur la période, l'équipementier suédois estime que plus de 140.000 téraoctets de données - texte, pages Web, courriers électroniques, photos, vidéos, etc. - ont été transportés par les opérateurs du monde entier. L'un des principaux facteurs de l'explosion du trafic données serait l'essor des réseaux sociaux, Facebook en tête.

Le fait que 400 millions d'abonnements à Internet mobile suscitent maintenant plus de trafic données que le trafic voix réalisé par le total des 4,6 milliards d'abonnements mobiles dans le monde est une étape significative, a affirmé Hans Vestberg, PDG d'Ericsson.

Sur les deux dernières années, l'équipementier estime que le volume de données mobiles échangé a triplé tous les ans. Il devrait continuer à doubler tous les douze mois sur les cinq prochaines années, du fait de la démocratisation des forfaits, pour mobile ou pour ordinateur, permettant de se connecter en situation de mobilité.

Une tendance qui ne va pas sans inquiéter les opérateurs. Ceux-ci doivent en effet faire face à des besoins toujours croissants en bande passante, laissant craindre des congestions de plus en plus fréquentes de leurs réseaux, ce qui devrait les motiver à accélérer le passage à la 4G / LTE.
La fondation Wikimedia poursuit la refonte de Wikipedia. Après avoir lancé une campagne de promotion de la vidéo en format libre dans son espace Wikimedia Commons, elle annonce sur son blog plusieurs changements significatifs dans son encyclopédie libre.

Les premières mises à jour seront effectuées en avril, avec un gros travail de simplification de l'accès : un nouveau thème, Vector, devrait permettre aux utilisateurs de trouver plus facilement les fonctions essentielles. L'édition des pages sera également facilitée, grâce à une nouvelle barre de fonctions. L'insertion des liens et tableaux sera aussi plus aisée et une « antisèche » sera intégrée pour aider à trouver les fonctionnalités les plus utilisées. Autre grand chantier : la disposition des pages devrait être entièrement revue. La navigation sera ainsi « simplifiée, la boîte de recherche déplacée pour satisfaire les utilisateurs et mieux coller aux standards de navigation, une partie du fouillis réduite », précise le blog. Wikimedia assure également que les nouvelles fonctionnalités seront gérées par différents formats de navigateurs, résolutions et tailles de fenêtres.

Les premiers changements interviendront dès le 5 avril, et concerneront dans un premier temps Wikimedia Commons, le répertoire de médias lié à l'encyclopédie. Si tout se passe bien, Wikipedia suivra, dans sa version anglaise à partir de la fin du mois, puis pour toutes les autres langues. Les utilisateurs enregistrés auront la possibilité de retourner à l'ancienne interface en un clic, précise le blog.

Toutes ces fonctionnalités sont en test depuis six mois pour 500 000 bêta testeurs du monde entier. 80% d'entre eux auraient choisi de conserver la nouvelle interface. D'autres améliorations sont aussi annoncées par la suite. La volonté de la fondation Wikimedia est de simplifier l'accès au site et à l'édition. Ceci pour mettre fin à la baisse relative mais réelle du nombre de contributeurs (Wikipedia est toujours le sixième site mondial en terme d'audience) : près de 50 000 éditeurs ont été perdus en 2009, selon Andrew Lih, professeur de journalisme à Berkeley.

Auteur de The Wikipedia Revolution, il explique que la participation à Wikipedia est de plus en plus compliquée, techniquement et socialement. Le chercheur a élaboré deux scénarios pour le futur de l'encyclopédie : soit un déclin de la qualité des articles, avec une plus grande vulnérabilité au spam (car il y a moins de contributeurs pour vérifier les articles), soit la constitution d'une élite de contributeurs très fermée. C'est ce futur sombre qu'essaie aujourd'hui de contrer la fondation Wikimedia.
Les développeurs du système Jolicloud, fondé par le français Tariq Krim, annoncent vouloir miser davantage sur le potentiel du HTML5 et présentent une nouvelle mouture embarquant la technologie du navigateur Chrome de Google. Rappelons que le système Jolicloud se base sur Debian et Ubuntu 9.10 et offre une interface spécialement conçue pour les netbooks.

A l'instar de Chrome OS qui devrait tirer parti des applications hébergées et des technologies web de mise en cache, Jolicloud, présenté en alpha en juin dernier, embarque à ce jour plus de 600 services web directement intégrés à l'interface utilisateur. Jusqu'à présent Jolicloud utilisait le moteur de rendu de Mozilla Prism pour intégrer une application en ligne au sein de la plateforme. La dernière mouture embarque désormais une version personnalisée de Chromium baptisée Nickel et permettant de présenter une application web en mode plein écran et de la faire tourner de manière native.

Notons également que le changement du moteur de rendu offre une meilleure gestion de la mémoire, un point non négligeable sur un système conçu pour netbooks. Les utilisateurs actuels de Jolicloud recevront une simple mise à jour. Il est également possible de télécharger le code source ici.
Chaque année, le Pwn2Own contest met en compétition les meilleurs experts en sécurité dans le cadre de la Conférence CanSec de Vancouver pour tenter d'exploiter les failles des navigateurs. Et après le premier jour de l'édition 2010, il n'en reste plus qu'un : Google Chrome.

Le plus gros morceau à être tombé, c'est l'iPhone. Deux chercheurs, Vincenzo Iozzo et Ralph Weinmann, ont été les premiers à s'infiltrer avec succès sur le mobile, en exploitant un défaut du navigateur Safari pour récupérer la base de SMS sur un serveur. Ils n'ont pas pu être présents physiquement au concours, suite à un retard de leur avion, mais ils étaient représentés par Halvar Flake, autre chercheur en sécurité reconnu, et ont empoché 15 000 dollars pour la découverte de cette vulnérabilité Zero-day.

Autre faille dans Safari : Charlie Miller, un analyste en sécurité chez Independant Security Evaluators, a rapidement exploité une faille de la version bureau du navigateur. Il a remporté 10 000 dollars pour cette découverte, l'une des 20 dont il avait prévu de parler plus tard dans la conférence. Il est parvenu à infiltrer le navigateur en ouvrant un shell à distance, qui lui a permis de lancer n'importe quel code malicieux. Insatisfait des processus de sécurité chez Apple, il a annoncé qu'il ne dévoilerait pas toutes les failles, même si le règlement du concours l'oblige à révéler celle utilisée pour infiltrer la machine. Il a par ailleurs déclaré qu'il ne lui avait fallu que trois semaines et trois ordinateurs pour trouver ces 20 failles. Presque trop facile : « Je ne fais rien, mes ordinateurs font tout le travail. La quantité de travail nécessaire, c'est une minute par jour. Je ne devrais pas pouvoir trouver de failles avec ça, car Apple devrait être meilleur que moi à ce jeu. »

Les autres navigateurs ne sont pas beaucoup mieux lotis. Un spécialiste néerlandais, Peter Vreugdenhil, est parvenu à contourner la protection de l'ASLR (randomisation de l'espace d'adressage), une sécurité qui configure les processus de manière aléatoire, et à exploiter une faille présente sur le navigateur Internet Explorer 8 de Windows 7. 10 000 dollars pour lui aussi, ainsi que pour ce chercheur anglais, qui a utilisé la même technique pour exploiter une faille de Mozilla Firefox. Nils "c'est le nom qu'il a donné" a déclaré n'avoir eu besoin que de quelques jours pour sa découverte.

Au final, il ne reste que Chrome 4, tournant sur Windows 7, ainsi que plusieurs téléphones portables. Les experts n'ont pas tenté d'infiltrer le Nexus One, le BlackBerry Bold 9700, ni le Nokia E72 et son système Symbian.Précision : au terme du premier jour, les experts en sécurité informatique n'ont pas tenté d'infiltrer Chrome, pour diverses raisons qui rendent cette opération « compliquée », selon Charlie Miller. Le navigateur Opera ne fait pas partie du concours.
La plateforme de vidéo YouTube souffrirait-elle de sa popularité ? En effet le site fut inaccessible pendant plusieurs heures au moins dans ses déclinaisons américaines et françaises. Sur youtube.fr l'incident a été constaté aux alentours de 8h30 et ce jusqu'à 14h aujourd'hui jeudi 25 mars 2010.

Certes ce n'est pas la première fois que l'on observe une panne sur un service web mais ce problème touche plus généralement les petites sociétés telles que Twitter. Si les erreurs de connexion sont moins fréquentes chez Google, par le passé des problèmes d'accès ont également été constatés sur le service de Gmail.

Notons tout de même que les clips insérés sur les blogs et sites communautaires fonctionnaient parfaitement. Contacté par nos soins Google France ne donne pour l'heure aucune explication au problème en question : "Nous avons constaté que YouTube était inaccessible et nos équipes d'ingénieurs aux Etats-Unis et en France sont toujours en train de déterminer l'origine de la panne".
LoadingChargement en cours