News

Le site 'Owni Digital Journalism' a publié un article pour vous montrer des tendances pour rendre un site web plus visible pour l'année 2011, quelque soit la technologie ou le langage employé comme PHP.

L'article montre que vous devrez compter sur les nombreuses idées des journalistes ou rédacteurs pour vous faire venir sur leurs sites, mais aussi par l'utilisation des réseaux sociaux (Facebook, Twitter, Google, etc..).

Les points importants à retenir sont :
- SEO journalism, ou le journalisme d’autocomplétion
- Analyse des données pour mieux comprendre ses visiteurs, ou reader-centered journalism
- Valorisation des lecteurs
- Le social gaming pour valoriser sa communauté
- News + social Gaming, ou le jeu informatif
- La recommandation pour diffuser l’info et interagir avec le lecteur
- “Plus mon réseau sera vaste, mieux je serai informé”
- Tous curators
- Socialiser le live-blogging
- L’hyperlocal, enfin ?
- Journalisme de données : ce n’est qu’un début

- Journalisme et réseaux sociaux: 11 tendances pour 2011
Facebook a annoncé ces derniers jours deux ajouts sur sa plateforme : l'intégration d'options de filtrage supplémentaires pour le fil d'actualité, et une fonction de reconnaissance faciale pour tagguer les photos à la volée.

Cette dernière fonctionnalité a été annoncée en fin de semaine sur le blog du réseau social, et devrait venir compléter, dans les semaines qui viennent, l'option de marquage groupé déployée depuis otcobre. En effet, le site se charge déjà de détecter les visages et de les regrouper pour faciliter leur identification lors de l'envoi de photos. Avec la reconnaissance faciale, l'identification devrait être automatique. Les utilisateurs du réseau ne désirant pas prendre part à cette nouvelle fonction pourront la désactiver via leurs paramètres de confidentialité.

La seconde nouveauté est d'ores et déjà en cours de déploiement sur le réseau social : il s'agit d'un affinement les options de filtrage du fil d'actualité. Ce dernier se composait jusque-là de deux modes uniques, à savoir l'affichage des actus "à la une" et "les plus récentes". Cette seconde option se décline désormais en menu déroulant permettant de filtrer selon différents critères jeux, statuts, photos et permet également de suivre un groupe d'amis spécifique.

Une nouvelle fonctionnalité qui peut s'avérer intéressante pour les membres du réseau ayant beaucoup de contacts Facebook.
le 22/12/2010 à 00:00
L'Hadopi espagnole est rejetée
Connue en Espagne sous le nom de « Sinde Act » (du nom du ministre de la Culture, Ángeles González-Sinde) la loi vient d'être rejetée par la Commission des affaires économiques de la chambre des députés en Espagne. Dans la droite ligne d'Hadopi, les dispositions du projet devaient mener à un blocage du Web via les FAI.Il faut croire que les fruits de la colère des acteurs espagnols du numérique ont été cueillis. Certains sites de partage ont clairement montré leur désaccord face aux dispositions de la loi en montant l'opération « No al cierre de webs » (non à la fermeture du web). Afin de signifier leur mécontentement, la plupart d'entre eux se sont mis hors ligne en signe de protestation.

Concrètement, la loi avait pour but de dresser une liste de sites de partages afin de mieux contrôler leur contenu. Une position amèrement acceptée car le ministère aurait pu se joindre aux plaintes d'ayants droit et bloquer voire fermer certains sites. Quant aux FAI, ils étaient relégués au rang d'exécutants, chargés de bloquer les sites visés.

Bien que considérée comme moins répressive que l'Hadopi française (qui cible et sanctionne directement l'internaute) la loi Sinde prévoyait de pouvoir demander le retrait des contenus à la justice. Cette dernière disposait de quatre jours pour ordonner ou non le blocage d'un site.

Enfin, ce retrait est également un désaveu pour les tenants d'un contrôle du Web. Selon des fuites organisées par Wikileaks, l'ambassade des Etats-Unis à Madrid aurait proposé aux espagnols de soumettre au vote ce projet de loi. Pourtant, fin 2009, les ministres espagnols avaient expliqué aux représentants qu'ils souhaitent mettre en place ce système mais sous un « modèle espagnol » à savoir « plus démocratique »…
Google a répondu au buzz lancé il y a quelques semaines en proposant officiellement un bouton « beatbox » sur son service de traduction en ligne.

La firme de Moutain View a de l'humour, et vient de le prouver en ajoutant un clin d'oeil dissimulé dans Google Translate : en sélectionnant la langue allemande en tant que source et cible de la traduction, et en inscrivant des suites de consonnes comme "pv", "zk" ou "pkz", le bouton "traduire" se transforme en "beatbox".

Un "oeuf de Pâques" qui fait écho au buzz lancé sur la toile fin novembre sur de nombreux sites dont Reddit. Il ne reste plus qu'a faire preuve d'imagination…
Non contente de mettre à disposition de la communauté une huitième version de test (bêta) de son futur navigateur, Firefox 4, la fondation Mozilla vient d'annoncer qu'elle lui intègrerait début 2011 un module de protection de la vie privée, qui permettra à l'internaute de s'assurer qu'aucune information concernant ses habitudes de navigation n'est récupérée par les outils publicitaires.

Du côté de la bêta 8, d'ores et déjà disponible au téléchargement bien qu'aucune annonce officielle n'ait encore été formulée, les nouveautés se situent principalement au niveau des possibilités de synchronisation via Firefox Sync. Cet outil permet pour mémoire de stocker sur un serveur distant opéré par Mozilla ses paramètres utilisateurs, historique, mots de passe sauvegardés ou onglets ouverts, de façon à facilement les retrouver à partir d'une autre instance du navigateur, ouverte sur un second ordinateur ou terminal connecté (via une application iPhone par exemple).

Le gestionnaire des extensions et la prise en charge de WebGL profitent également d'améliorations et d'optimisations diverses. L'essentiel n'est toutefois peut-être pas là, mais dans la très longue liste de 1400 dysfonctionnements divers corrigés avec cette bêta 8, dont la stabilité devrait donc avoir été significativement améliorée.

Au moins deux versions bêta sont encore attendues avant l'arrivée de la version finale, prévue pour début 2011. La bêta 8 pourra quant à elle être téléchargée pour Windows, Mac et Linux à partir de ce FTP.Mode Do Not Track en vue

Mozilla a par ailleurs indiqué son intention de fournir très prochainement au sein de Firefox un mode furtif, baptisé Do Not Track et assez proche dans la forme du mode Vie Privée prévu par Microsoft pour Internet Explorer 9. La forme exacte qu'il revêtira n'a pas encore été définie mais Gary Kovacs, nouveau PDG de Mozilla, a confirmé à l'AFP (anglais) qu'un tel projet était bien à l'étude.

« L'utilisateur doit avoir le contrôle », a déclaré à l'AFP Gary Kovacs. « Ce n'est pas que les publicités soient mauvaises, c'est ce qu'ils font des données comportementales. Ce que je fais sur Internet c'est la façon dont je vis ma vie, ce qui fait beaucoup de données juste pour que quelqu'un me délivre des publicités ».

L'idée n'est pas ici de fournir un mode 100% anonyme (parfois surnommé porn mode, dans la mesure où lorsqu'il est activé, aucune trace de la navigation ne subsiste sur la machine après fin de la session de surf), mais un outil permettant à l'utilisateur de contrôler, voire limiter, l'action des outils utilisés par les publicitaires (cookies notamment) pour analyser les habitudes de navigation et, par exemple, cibler les publicités en fonction de ces dernières.
Suite à l'annonce de la sortie de sa nouvelle Freebox, la V6, la principale critique s'est faite autour des tarifs pratiqués par l'opérateur. Si le forfait Triple-Play reste aux alentours de 30 euros, 5,99 euros seront ajoutés pour les clients en dégroupage total. Cette hausse s'ajouterait alors aux « 2 ou 3 euros » prévus dans le cadre de la hausse de la TVA. Par contre, Free compterait s'opposer à toute taxation pour copie privée.A en croire le quotidien économique Les Echos, la filiale d'Iliad refuserait de s'acquitter de la taxe sur la copie privée de 35 euros. La partie Freebox Server comporte un disque dur de 250 Go. Elle devrait, en principe, entrer dans cette catégorie comme pour n'importe quel support de stockage de type DVD, CD, disque dur (également multimédia), clé USB…

Pour autant, Free argumente sa position en estimant que la Freebox Server doit être considérée comme un Nas c'est-à-dire un serveur de fichiers et non comme un simple disque dur multimédia. De même, le FAI explique que le décodeur fonctionne sur plus de trois systèmes d'exploitation. Il serait ainsi exempté de taxe pour Copie privée…Exception ou exemption ?

En effet, la Commission pour la Copie privée donne comme cause exonératoire de taxe les appareils pouvant fonctionner « simultanément avec au moins trois systèmes d'exploitation ». La nouvelle Freebox entrerait ainsi dans ces critères et pourrait être exemptée de taxe.

Une position que contestent vivement les concurrents de Free en pointant la menace d'un éventuel procès. Pour cause, si elle est confirmée, Iliad réaliserait ainsi une économie de 17,5 millions d'euros sur une base de 500 000 clients d'ici fin 2011…
le 22/12/2010 à 00:00
La CIA crée la WTF
Dis comme çà, cela fait un peu Lolilol mais l'information est très sérieuse. La CIA vient de créer une cellule spécialisée chargée d'enquêter sur Wikileaks : la Wikileaks Task Force (WTF). Elle sera chargée d'évaluer l'impact des fuites du site fondé par Julian Assange.La CIA a notamment informé le Washington Post qu'elle comptait mener un inventaire des informations classifiées mises au jour. Elle devrait même se concentrer sur les dernières révélations en date du site Wikileaks. La WTF aura aussi comme prérogative de comprendre si le gouvernement des Etats-Unis peut toujours avoir confiance dans le secret de certaines de ses informations.

Toujours est-il que selon un ancien membre de l'agence, la CIA paie sa culture du secret. Elle avait refusé voilà deux ans de rendre accessible certaines de ses informations sur Spirnet, un réseau utilisé par le Pentagone pour diffuser une partie de certains contenus à travers le monde.
le 22/12/2010 à 00:00
La loi Loppsi 2 est adoptée
L'Assemblée nationale a voté ce mardi, en fin d'après-midi, la loi d'orientation et de programmation pour la performance de la sécurité intérieure, ou Loppsi 2. La France vient donc de se doter d'un arsenal de mesures en matière de vidéo surveillance et de filtrage du Web contre certains sites jugés pédopornographiques.La représentation nationale a donc adopté le texte par 305 voix contre 187 (8 abstentions). La majorité politique a soutenu le texte, l'adoption était donc logique. Même le Sénat avait déjà donné son aval.

Pour rappel, les principales dispositions du texte se trouvent dans l'article 4 de la loi qui énonce qu'un site considéré comme pédopornographique peut être bloqué sans même l'intervention d'un juge. De même, l'article 2 de la Loppsi met en place un délit d'usurpation d'identité en ligne. Chaque contrevenant est désormais passible de 2 ans de prison et de 20 000 euros d'amende.
Le réveil a dû être difficile pour Orange le 9 décembre dernier puisque près d'une trentaine d'enquêteurs de l'Autorité de la concurrence ont organisé une perquisition. Accompagnée d'officiers de police judiciaire, l'autorité enquête suite à une plainte de SFR portant sur les tarifs professionnels pratiqués par l'opérateur historique.Comme l'affirme La Tribune.fr, une perquisition a été menée dans les locaux d'Orange, au siège à Arcueil, chez Orange Business Services à Saint-Denis et au siège parisien du 15e arrondissement. Même le bureau du p-dg du groupe, Stéphane Richard, aurait été visité. Cette action fait suite à la plainte de l'opérateur SFR contre Orange pour avoir mené des pratiques anticoncurrentielles dans la téléphonie mobile aux entreprises.

L'Autorité de la concurrence n'a pas commenté la perquisition mais cette « descente coordonnée et simultanée » a duré presque 18 heures. Elle visait à trouver des preuves afin de savoir si Orange a accordé des ristournes trop importantes à certains grands comptes. Ce signal d'alerte pourrait, si ces accusations s'avèrent fondées, se transformer en sévère amende.

Il faudra donc plusieurs mois avant de connaître les conséquences de cette perquisition. Certains affirment même qu'une décision finale devrait arriver dans dix à douze mois...
Gad Stanislas est directeur général pour la France et le Benelux de la société Cotendo, spécialisée dans les réseaux de distribution de contenu ou CDN (Content Delivery Network). Dans cette tribune libre, il invite les éditeurs à réfléchir à l'impact que peuvent avoir les performances d'un site ou d'une application en ligne sur son positionnement dans les moteurs de recherche, en développant quelle peut être la proposition de valeur d'une analyse menée au niveau du CDN. Avez-vous déjà pris le temps de regarder à la loupe l'écran de votre ordinateur et de compter les pixels un par un ? Sans doute pas, mais c'est à ce niveau de granularité qu'opèrent les robots d'indexation qui examinent votre site web. Ils analysent chaque mot, titre, image, méta-tag, ainsi que le délai de chargement de chaque page. Et souvent, ils en savent plus que vous sur votre site web.

Les robots et leurs analyses nourrissent les algorithmes des moteurs de recherche, et, in fine, le ranking de votre site sur les pages de résultats de recherches. Ce ranking est essentiel pour améliorer le nombre de clics, drainer de nouveaux clients, faire progresser la valeur moyenne des achats, et doper la fidélité de vos clients. À ce titre, les robots sont devenus incontournables.

La bonne nouvelle est vous pouvez tirer profit de ces robots d'indexation. Par exemple, vous pouvez déterminer, en quelques minutes, les 20% des problématiques de performance de votre site web qui, une fois corrigées, doperont vos performances web de 80%.Les robots connaissent vos faiblesses

Pour les robots des moteurs de recherche, la latence est une faiblesse : les pages qui peinent à se charger risquent fort d'être purement et simplement ignorées. D'autre part, une configuration médiocre de votre site pèsera lourdement sur la qualité de son indexation, puisque seules certaines pages seront prises en compte par les robots. Ces problématiques sont particulièrement épineuses pour les sites de vente en ligne dont le contenu est généralement dynamique, personnalisé au travers de pages complexes, et faisant appel à de nombreux objets.

Les robots d'indexation informent leurs moteurs de recherche respectifs, et ces derniers pénalisent le ranking des sites lents et mal indexés. En revanche, une structure de site et un délai de chargement optimisés amélioreront le ranking. Votre site ne sera pas relégué dans les bas-fonds des résultats de recherche, et donc visible par les internautes qui, et c'est un fait, ne consulteront que les premières pages de résultats. Connaître les modalités d'indexation de votre site et ce qui peut nuire à son ranking devient ainsi payant, au sens littéral du terme.

En résumé, pour réussir votre référencement avec les moteurs de recherches (Search Engine Optimization - SEO), vous devez savoir très exactement ce que les robots d'indexation évaluent.

Les carences des analyses orientées Google et des réseaux de contenus classiques

Moteur de recherche distinct équivaut à analyse spécifique. Google ne vous renseigne pas sur Bing et Yahoo! Analyser les données d'un seul robot d'indexation n'offre ainsi qu'une information partielle. Pour autant, analyser les données de chaque robot est une perte de temps, d'autant que cette approche néglige de précieuses corrélations qui résultent du croisement des analyses.

Un réseau de fourniture de contenu (ou CDN pour Content Delivery Network) utilisé pour améliorer un site peut collecter des informations provenant de plusieurs robots. Mais attention, si vous envisagez cette approche, sachez qu'un CDN classique peut agréger tellement de contenu, qu'au final, vous n'avez pas de visibilité sur des données importantes qui optimiseront votre référencement (SEO - Search Engine Optimization).

Fort heureusement, il est possible de pallier ces carences...Devenez "Omniscient"

Regrouper toutes vos analyses en utilisant votre CDN comme un "super observateur". Un CDN dédié au e-commerce doit être en mesure de collecter et d'analyser l'activité des robots d'indexation. Ces tâches sont effectuées en surveillant toutes les requêtes HTTP qui demandent une information sur un site. Si vous disposez déjà d'une politique de monitoring, il vous sera facile de regrouper, d'analyser et de créer des rapports sur base des données issues de tous les robots d'indexation (Google, Bing, Yahoo! et autres). Cette approche simple, qui consiste à intégrer les analyses SEO au cœur de votre CDN, vous donne des informations immédiates et détaillées (identification des objets dont le téléchargement est lent par exemple). Ces données vous aideront à rendre votre site plus performant, et donc, à améliorer votre ranking dans les moteurs de recherche.

Maintenant que vous connaissez les secrets des robots d'indexation, vous avez la possibilité d'optimiser en continu votre site de commerce en ligne à l'intention des moteurs de recherche, grâce aux données détaillées et granulaires fournies par les fonctions SEO intégrées de votre CDN. Notons également que les algorithmes des moteurs de recherche évoluent dans le temps, ce qui peut rendre votre optimisation SEO particulièrement chronophage. Ce qui est, dans la réalité, rarement le cas, puisque la règle des 20-80 s'applique ici.

En clair, 20% des pages ou des objets problématiques comptent pour 80% des problématiques de performance du site, et ces pages constituent le périmètre de vos efforts SEO. En particulier, soyez attentifs aux données suivantes des robots d'indexation :

- Des requêtes répétées sur une même page ou objet
- Le nombre général de pages/objets évalués par le robot
- Le nombre de pages/objets engendrant des codes d'erreurs
- Les objets dont le chargement est trop long

Fixez-vous des objectifs de performances pour ces éléments pour repérer rapidement les éventuelles problématiques. En disposant d'informations détaillées et décisionnelles, vous optimisez votre site web et améliorez votre classement, tout en maîtrisant vos budgets et vos efforts.Dopez votre chiffre d'affaire avec les analyses SEO

Les sites de commerce en ligne qui connaissent l'activité des robots d'indexation améliorent leurs performances et le retour sur investissements en SEO, et prennent une longueur d'avance sur leurs concurrents, qui eux, n'ont pas cet éclairage. Les grands gagnants de cette approche sont les petits acteurs du e-commerce, dont les budgets étriqués les tiennent à l'écart des campagnes 'pay-per-click' d'envergure. Pour eux, une bonne stratégie SEO, avec les bons outils et analyses, les amène à rivaliser avec des concurrents disposant de moyens plus importants.

Les analyses SEO de votre réseau CDN vous aideront à optimiser votre référencement et votre classement, pour ainsi améliorer vos taux de clics et de conversion. À noter également qu'un site performant améliore l'expérience de l'utilisateur, l'incitant à être fidèle à votre marque et à faire des achats.

Grâce aux secrets qu'ils révèlent, les robots d'indexation sont de puissants informateurs. Sachez utiliser votre CDN pour écouter et apprendre, et faites de cette puissance votre meilleure alliée.
LoadingChargement en cours