News WEB

le 22/12/2010 à 00:00
La loi Loppsi 2 est adoptée
L'Assemblée nationale a voté ce mardi, en fin d'après-midi, la loi d'orientation et de programmation pour la performance de la sécurité intérieure, ou Loppsi 2. La France vient donc de se doter d'un arsenal de mesures en matière de vidéo surveillance et de filtrage du Web contre certains sites jugés pédopornographiques.La représentation nationale a donc adopté le texte par 305 voix contre 187 (8 abstentions). La majorité politique a soutenu le texte, l'adoption était donc logique. Même le Sénat avait déjà donné son aval.

Pour rappel, les principales dispositions du texte se trouvent dans l'article 4 de la loi qui énonce qu'un site considéré comme pédopornographique peut être bloqué sans même l'intervention d'un juge. De même, l'article 2 de la Loppsi met en place un délit d'usurpation d'identité en ligne. Chaque contrevenant est désormais passible de 2 ans de prison et de 20 000 euros d'amende.
Le site 'Owni Digital Journalism' a publié un article pour vous montrer des tendances pour rendre un site web plus visible pour l'année 2011, quelque soit la technologie ou le langage employé comme PHP.

L'article montre que vous devrez compter sur les nombreuses idées des journalistes ou rédacteurs pour vous faire venir sur leurs sites, mais aussi par l'utilisation des réseaux sociaux (Facebook, Twitter, Google, etc..).

Les points importants à retenir sont :
- SEO journalism, ou le journalisme d’autocomplétion
- Analyse des données pour mieux comprendre ses visiteurs, ou reader-centered journalism
- Valorisation des lecteurs
- Le social gaming pour valoriser sa communauté
- News + social Gaming, ou le jeu informatif
- La recommandation pour diffuser l’info et interagir avec le lecteur
- “Plus mon réseau sera vaste, mieux je serai informé”
- Tous curators
- Socialiser le live-blogging
- L’hyperlocal, enfin ?
- Journalisme de données : ce n’est qu’un début

- Journalisme et réseaux sociaux: 11 tendances pour 2011
Le réveil a dû être difficile pour Orange le 9 décembre dernier puisque près d'une trentaine d'enquêteurs de l'Autorité de la concurrence ont organisé une perquisition. Accompagnée d'officiers de police judiciaire, l'autorité enquête suite à une plainte de SFR portant sur les tarifs professionnels pratiqués par l'opérateur historique.Comme l'affirme La Tribune.fr, une perquisition a été menée dans les locaux d'Orange, au siège à Arcueil, chez Orange Business Services à Saint-Denis et au siège parisien du 15e arrondissement. Même le bureau du p-dg du groupe, Stéphane Richard, aurait été visité. Cette action fait suite à la plainte de l'opérateur SFR contre Orange pour avoir mené des pratiques anticoncurrentielles dans la téléphonie mobile aux entreprises.

L'Autorité de la concurrence n'a pas commenté la perquisition mais cette « descente coordonnée et simultanée » a duré presque 18 heures. Elle visait à trouver des preuves afin de savoir si Orange a accordé des ristournes trop importantes à certains grands comptes. Ce signal d'alerte pourrait, si ces accusations s'avèrent fondées, se transformer en sévère amende.

Il faudra donc plusieurs mois avant de connaître les conséquences de cette perquisition. Certains affirment même qu'une décision finale devrait arriver dans dix à douze mois...
Aux Etats-Unis, les dépenses publicitaires consacrées à Internet devraient pour la première fois dépasser en 2010 celles qui sont allouées à la presse papier, même si l'on prend en compte ses activités en ligne, affirme cette semaine une étude réalisée par le cabinet eMarketer. La différence ne serait pas énorme au regard des investissements concernés, mais ce passage de relais, qui fait l'objet d'études et de pronostics divers depuis des années, revêtira s'il est confirmé une certaine valeur symbolique.

D'après les projections établies par eMarketer, les investissements publicitaires dans la presse papier s'établiront à 22,78 milliards dollars pour 2010, un total en déclin de 8,2% sur un an. Si l'on ajoute les recettes publicitaires de la presse émanant de leurs sites et services Web, le chiffre d'affaires total se monterait à 25,7 milliards de dollars sur l'année... soit 100 millions de dollars de moins que les 25,8 milliards de dollars dépensés, tous supports confondus, en publicité en ligne en 2010.

Pour eMarketer, on atteindrait en cette fin d'année le tipping point, ce point d'inflexion où un phénomène incertain et singulier devient la règle. Pour 2011, ses analystes pronostiquent en effet un renforcement de la tendance, avec des investissements en presse papier passant à 21,4 milliards (- 6%) alors que les dépenses en ligne atteindraient 28,5 milliards, soit une hausse de 10,5%.

Geoff Ramsey, directeur exécutif d'eMarketer, se range à un avis déjà régulièrement émis par d'autres : « les mauvaises conditions économiques ont accéléré le passage à la publicité numérique. Les acteurs du marketing perçoivent de plus en plus les publicités en ligne - et tout particulièrement les publicités liées à la recherche - comment étant un pari plus sûr que les publicités imprimées, qui sont souvent difficiles à lier à un résultat financier mesurable ».
Gad Stanislas est directeur général pour la France et le Benelux de la société Cotendo, spécialisée dans les réseaux de distribution de contenu ou CDN (Content Delivery Network). Dans cette tribune libre, il invite les éditeurs à réfléchir à l'impact que peuvent avoir les performances d'un site ou d'une application en ligne sur son positionnement dans les moteurs de recherche, en développant quelle peut être la proposition de valeur d'une analyse menée au niveau du CDN. Avez-vous déjà pris le temps de regarder à la loupe l'écran de votre ordinateur et de compter les pixels un par un ? Sans doute pas, mais c'est à ce niveau de granularité qu'opèrent les robots d'indexation qui examinent votre site web. Ils analysent chaque mot, titre, image, méta-tag, ainsi que le délai de chargement de chaque page. Et souvent, ils en savent plus que vous sur votre site web.

Les robots et leurs analyses nourrissent les algorithmes des moteurs de recherche, et, in fine, le ranking de votre site sur les pages de résultats de recherches. Ce ranking est essentiel pour améliorer le nombre de clics, drainer de nouveaux clients, faire progresser la valeur moyenne des achats, et doper la fidélité de vos clients. À ce titre, les robots sont devenus incontournables.

La bonne nouvelle est vous pouvez tirer profit de ces robots d'indexation. Par exemple, vous pouvez déterminer, en quelques minutes, les 20% des problématiques de performance de votre site web qui, une fois corrigées, doperont vos performances web de 80%.Les robots connaissent vos faiblesses

Pour les robots des moteurs de recherche, la latence est une faiblesse : les pages qui peinent à se charger risquent fort d'être purement et simplement ignorées. D'autre part, une configuration médiocre de votre site pèsera lourdement sur la qualité de son indexation, puisque seules certaines pages seront prises en compte par les robots. Ces problématiques sont particulièrement épineuses pour les sites de vente en ligne dont le contenu est généralement dynamique, personnalisé au travers de pages complexes, et faisant appel à de nombreux objets.

Les robots d'indexation informent leurs moteurs de recherche respectifs, et ces derniers pénalisent le ranking des sites lents et mal indexés. En revanche, une structure de site et un délai de chargement optimisés amélioreront le ranking. Votre site ne sera pas relégué dans les bas-fonds des résultats de recherche, et donc visible par les internautes qui, et c'est un fait, ne consulteront que les premières pages de résultats. Connaître les modalités d'indexation de votre site et ce qui peut nuire à son ranking devient ainsi payant, au sens littéral du terme.

En résumé, pour réussir votre référencement avec les moteurs de recherches (Search Engine Optimization - SEO), vous devez savoir très exactement ce que les robots d'indexation évaluent.

Les carences des analyses orientées Google et des réseaux de contenus classiques

Moteur de recherche distinct équivaut à analyse spécifique. Google ne vous renseigne pas sur Bing et Yahoo! Analyser les données d'un seul robot d'indexation n'offre ainsi qu'une information partielle. Pour autant, analyser les données de chaque robot est une perte de temps, d'autant que cette approche néglige de précieuses corrélations qui résultent du croisement des analyses.

Un réseau de fourniture de contenu (ou CDN pour Content Delivery Network) utilisé pour améliorer un site peut collecter des informations provenant de plusieurs robots. Mais attention, si vous envisagez cette approche, sachez qu'un CDN classique peut agréger tellement de contenu, qu'au final, vous n'avez pas de visibilité sur des données importantes qui optimiseront votre référencement (SEO - Search Engine Optimization).

Fort heureusement, il est possible de pallier ces carences...Devenez "Omniscient"

Regrouper toutes vos analyses en utilisant votre CDN comme un "super observateur". Un CDN dédié au e-commerce doit être en mesure de collecter et d'analyser l'activité des robots d'indexation. Ces tâches sont effectuées en surveillant toutes les requêtes HTTP qui demandent une information sur un site. Si vous disposez déjà d'une politique de monitoring, il vous sera facile de regrouper, d'analyser et de créer des rapports sur base des données issues de tous les robots d'indexation (Google, Bing, Yahoo! et autres). Cette approche simple, qui consiste à intégrer les analyses SEO au cœur de votre CDN, vous donne des informations immédiates et détaillées (identification des objets dont le téléchargement est lent par exemple). Ces données vous aideront à rendre votre site plus performant, et donc, à améliorer votre ranking dans les moteurs de recherche.

Maintenant que vous connaissez les secrets des robots d'indexation, vous avez la possibilité d'optimiser en continu votre site de commerce en ligne à l'intention des moteurs de recherche, grâce aux données détaillées et granulaires fournies par les fonctions SEO intégrées de votre CDN. Notons également que les algorithmes des moteurs de recherche évoluent dans le temps, ce qui peut rendre votre optimisation SEO particulièrement chronophage. Ce qui est, dans la réalité, rarement le cas, puisque la règle des 20-80 s'applique ici.

En clair, 20% des pages ou des objets problématiques comptent pour 80% des problématiques de performance du site, et ces pages constituent le périmètre de vos efforts SEO. En particulier, soyez attentifs aux données suivantes des robots d'indexation :

- Des requêtes répétées sur une même page ou objet
- Le nombre général de pages/objets évalués par le robot
- Le nombre de pages/objets engendrant des codes d'erreurs
- Les objets dont le chargement est trop long

Fixez-vous des objectifs de performances pour ces éléments pour repérer rapidement les éventuelles problématiques. En disposant d'informations détaillées et décisionnelles, vous optimisez votre site web et améliorez votre classement, tout en maîtrisant vos budgets et vos efforts.Dopez votre chiffre d'affaire avec les analyses SEO

Les sites de commerce en ligne qui connaissent l'activité des robots d'indexation améliorent leurs performances et le retour sur investissements en SEO, et prennent une longueur d'avance sur leurs concurrents, qui eux, n'ont pas cet éclairage. Les grands gagnants de cette approche sont les petits acteurs du e-commerce, dont les budgets étriqués les tiennent à l'écart des campagnes 'pay-per-click' d'envergure. Pour eux, une bonne stratégie SEO, avec les bons outils et analyses, les amène à rivaliser avec des concurrents disposant de moyens plus importants.

Les analyses SEO de votre réseau CDN vous aideront à optimiser votre référencement et votre classement, pour ainsi améliorer vos taux de clics et de conversion. À noter également qu'un site performant améliore l'expérience de l'utilisateur, l'incitant à être fidèle à votre marque et à faire des achats.

Grâce aux secrets qu'ils révèlent, les robots d'indexation sont de puissants informateurs. Sachez utiliser votre CDN pour écouter et apprendre, et faites de cette puissance votre meilleure alliée.
Le ministre de l'Economie numérique a profité d'une invitation dans les locaux de PriceMinister pour dévoiler quelques pistes de son programme. Eric Besson a expliqué qu'il comptait lancer le Conseil National du numérique (CNN) prochainement. Un groupe de travail présidé par Pierre Kosciusko-Morizet (fondateur de PriceMinister) doit s'atteler à sa création.

Interrogé par la rédaction, Pierre Kosciusko-Morizet confirme sa nomination pour le comité qui devra choisir les membres du CNN : « Ce Conseil est une très bonne chose, cela va éviter d'avoir des évolutions réglementaires sans consulter les acteurs de l'Internet. On évitera ainsi de faire des contresens. Le travail est devant nous ».Ce rendez-vous était donc l'occasion pour le ministre de véritablement confirmer ses propositions dans le cadre du plan numérique 2012. Le ministre a annoncé la mise en place d'un groupe de travail avec les acteurs du numérique. L'objectif avoué de ce Conseil, imaginé de longue date mais constamment repoussé, est de créer une organisation capable d'être consultée sur toutes les thématiques de l'Internet au sens large : taxe Google, Loppsi, Hadopi…

Ce CNN devrait être doté d'un pouvoir consultatif afin que la classe politique puisse « sentir le pouls » du secteur avant toute prise de décision. Le premier cheval de bataille de cette commission pourrait alors être la taxe Google. Bien qu'adoptée, son application a été repoussée au mois de juillet 2011 en raison d'une trop forte opposition des acteurs de la publicité en ligne. Même François Baroin, ministre du budget justifiait son report afin de « mieux consulter toutes les personnes concernées… »

La CNN aura donc vocation à éviter les faux pas. Malgré tout, Eric Besson rappelle que les firmes américaines peuvent avoir une attitude nuisible pour le marché. Il explique : « Google ne contribue en rien au financement des réseaux et prend beaucoup de bande passante. Il faut donc trouver un moyen de faire contribuer les géants ».

Concernant la création du Conseil, le ministre explique qu'en janvier une première liste du groupe de travail sera éditée. Le CNN devrait alors être mis effectivement sur pied 2 à 3 mois plus tard. Le plan Numérique 2012 entre, comme prévu, en marche…
Les fondateurs du service About.me, qui permet à l'internaute de créer une simple page recensant tous les pans de son identité numérique, viennent d'annoncer son acquisition par AOL pour un montant non communiqué.

Derrière About.me, ouvert mi-décembre après trois mois d'une période de bêta-test ayant conduit à l'inscription de quelque 400 000 curieux, réside une idée toute simple : proposer à l'internaute de se constituer une unique page sur laquelle il concentrera les principaux aspects publics de son activité en ligne.

Après inscription, il sera donc invité à personnaliser cet espace personnel, avant de renseigner des éléments tels qu'une courte biographie, ses profils sur les réseaux sociaux ou l'adresse de ses propres sites Web, éventuellement accompagnée des remontées d'un flux RSS. Suite à la création de cette carte de visite en ligne, accessible via une adresse facile à mémoriser (exemple) il disposera d'une interface lui permettant de visualiser les statistiques de consultation de sa page par d'autres internautes, le nombre de clics envoyés vers les différents liens qu'elle comporte ou le nombre de liens pointant vers elle. Aujourd'hui, l'utilisation du service est entièrement gratuite.

Soutenu de près ou de loin par une jolie brochette de personnalités du Web américain, About.me compte notamment au rang de ses trois fondateurs Tony Conrad, qui connait déjà très bien AOL puisqu'il leur a cédé sa précédente start-up, Sphere, en 2008. Lui et son équipe rejoindront les rangs de la division Consumer Application d'AOL après que la transaction a été finalisée.

Le groupe américain, en pleine reconversion vers une stratégie contenus médias + services depuis sa scission d'avec Time Warner, pourrait avoir vu dans About.me un possible accompagnement de son outil Lifestream, chargé d'agréger les activités et publications d'un internaute sur les réseaux sociaux. Dans cette optique, AOL avait déjà procédé fin septembre à l'acquisition de la start-up Brizzly, éditrice d'un service analogue.
Foursquare complète dès aujourd'hui son service de géolocalisation sociale de deux fonctions plébiscitées. Les utilisateurs pourront désormais agrémenter un check-in de photos et de commentaires, comme peuvent déjà le faire les utilisateurs du rival Gowalla. Foursquare permet pour rappel de pointer à un endroit et de le faire savoir à sa liste d'amis, le cas échéant au travers de réseaux sociaux (Facebook et Twitter).

Les photos peuvent être associées à un check-in, pour s'ancrer dans un contexte et rester réservées à sa liste d'amis, ou bien à une recommandation (tip), pour permettre par exemple à tous les utilisateurs du service de "voir un plat avant de le commander, de déterminer si un endroit a l'air sympa ou de faciliter le repérage d'un endroit difficile à trouver".

Si un utilisateur pouvait déjà associer un statut à un check-in, ou ajouter une recommandation à un endroit, la nouvelle fonction commentaire permet quant à elle de répondre au check-in de quelqu'un d'autre au sein du service (et non en réponse à une publication automatique sur Facebook et/ou Twitter). Les commentaires ne sont visibles qu'entre amis. Foursquare y voit un moyen d'inciter des rencontres ou de faire part d'un conseil de dernière minute.

L'application "Foursquare pour iPhone" bénéficie d'ores et déjà de ces nouvelles fonctions, avec la mise à disposition aujourd'hui de la version 2.2 sur l'App Store. La mise à jour de l'application Android sera disponible la semaine prochaine, celle pour BlackBerry et webOS en janvier et celles pour les autres plateformes début 2011. Les photos sont consultables du site Internet, où la fonction commentaire est pleinement opérationnelle.

Une prochaine mise à jour permettra enfin de partager ses photos sur Facebook et Flickr, et d'améliorer le suivi des commentaires.
Deezer a aujourd'hui annoncé le lancement d'une application, d'une part pour les smartphones Windows Phone 7, et d'autre part pour une sélection de smartphones Nokia.

Sur Windows Phone, Deezer devance ainsi son principal rival Spotify. Ce dernier a toutefois annoncé au mois d'octobre qu'une application Windows Phone 7 était prévue.

Sur Symbian, Deezer a fait une sélection arbitraire et restreinte de smartphones Nokia. L'application Spotify pour Symbian, disponible depuis un peu plus d'un an déjà, est quant à elle disponible pour une sélection plus large de terminaux fonctionnant sous Symbian, y compris d'autres fabricants que Nokia. Seuls les Nokia N95, N96, N97, N97 Mini, 5800 Xpress Music, 5230, 6210 Navigator, N8 et C7 peuvent donc bénéficier de Deezer.

Quelque soit la plateforme, les fonctions offertes par l'application sont quant à elles unifiées. Les utilisateurs ont donc accès gratuitement aux 30 webradios thématiques, à la smartradio, à l'écoute d'extraits de 30 secondes et à l'édition de listes de lecture. Les abonnés à l'offre premium, facturée 10 euros/mois, peuvent quant à eux synchroniser leurs listes de lecture avec leur téléphone pour une écoute hors connexion.

Deezer pour Windows Phone et smartphone Nokia est disponible dès à présent respectivement sur le Zune Marketplace et sur l'Ovi Store.
Dans un post sur le blog de Delicious, la firme Yahoo indique qu'elle ne compte pas fermer le service. Elle répond à la rumeur selon laquelle le site de partage pourrait fermer ses portes prochainement. Par contre, l'option de la vente de Delicious reste, elle, toujours d'actualité.

Récemment, Eric Marcoullier, co-fondateur du service MyBlogLog, racheté par Yahoo en janvier 2007 publiait la capture d'écran d'une présentation interne sur les stratégies à venir au sein de la multinationale. Il était alors évoqué la fermeture de plusieurs services comme :Yahoo! Picks : une sélection manuelle de sites Internet mise à jour quotidiennement
les moteurs de recherche Altavista et AllTheWeb
les gestionnaires de favoris Delicious et Yahoo! Bookmarks
le réseau de blogueurs MyBlogLog
les outils communautaires Upcoming.org et Yahoo! Buzz


Face à ces informations insistantes, un article a donc été publié sur le blog du service. On y apprend que l'équipe de Yahoo pense « qu'il existe en dehors de notre groupe un foyer pour ce site qui sera plus pertinent pour ses services et ses utilisateurs. Nous sommes actuellement en train d'étudier toutes les options et nous avons débuté des discussions avec d'autres entreprises. Nous vous ferons part de nos projets dès que possible ».

Par contre, pour ce qui est de Yahoo Buzz, Yahoo Bookmarks ou bien encore pour le moteur de recherche Altavista, la fin a été confirmée.
LoadingChargement en cours