News

le 07/12/2010 à 00:00
Google Wave tourne l'Apache
En aout dernier, Google annonçait la mort du service Wave. « Nous n'avons pas eu autant d'utilisateurs que nous le souhaitions », voilà le motif invoqué pour signifier que la firme ne développera plus pour cette plateforme et utilisera ses technologies dans d'autres produits.Google Wave devait servir à faire le lien entre la boite e-mail et une messagerie instantanée tout en incluant la possibilité de partager des documents. Si à ses débuts, le service a suscité quelque curiosité, force est de constater que les utilisateurs ne sont pas venus en masse. Pourtant ce raté de Google vient de connaître une seconde vie grâce à l'Apache Software Foundation.

Le projet Wave in a Box avait été lancé par la firme en Open Source mais cette fois, le développement de l'application et des protocoles Wave Federation va pouvoir se poursuivre. Apache Wave devrait ainsi rapidement être développé sous la licence libre Apache.
Encore une fois, les révélations du site Wikileaks mettent le doigt sur des pratiques douteuses de certains Etats. A la lecture de nouveaux documents, on apprend que la Chine aurait utilisé ses accès au code source de Windows afin de développer des attaques qui utilisaient les faiblesses de l'OS.Un câble diplomatique datant de 29 juin 2009 explique que certaines firmes chinoises « en rapport proche avec la république populaire de Chine ont eu accès au code source de Windows grâce à un accord datant de 2003. Ce contrat devait, en principe, servir à améliorer la sécurité de l'OS ». Le CNITSEC, une organisation chinoise spécialisée dans la sécurité aurait ensuite « activement » travaillé avec des hackers afin de développer certains exploits.

Parmi ces hackers nationalistes, le nom de Lin Yong est évoqué. Bien connu, il aurait même monté une équipe afin de travailler sur ce projet…

De son côté, Microsoft rappelle au site The Register que le « programme de sécurité GSP (appelé Government Security Program) reste une initiative mondiale qui permet aux gouvernements d'accroître leur assurance dans les systèmes de sécurité en fournissant une partie du code source appartenant à Microsoft ». La firme précise que « l'accès à cet environnement est soumis à une authentification et est protégé par des mesures de sécurité ». A en croire Wikileaks, ces mesures auraient été visiblement outrepassées.
Ces dernières 24 heures, le réseau Tumblr fut inaccessible pour l'ensemble de ses utilisateurs. Confuse, l'équipe explique via son blog officiel qu'une grappe de serveurs critiques n'a pas tenu le choc face à l'ensemble des internautes.

A mi-chemin entre le blog et le réseau communautaire, Tumblr recueillerait plus de 500 millions de pages vues chaque mois. 10,5 millions de blogs ont été créés soit plus de 1,7 milliard de billets. David Karp, fondateur et PDG de la startup, explique ainsi : « Honnêtement il fut bien plus difficile de faire face à notre croissance que nous le pensions », en ajoutant : "nous avons déjà presque quadruplé notre équipe d'ingénieurs ce mois-ci et continuons nos efforts pour nous parer contre d'autres erreurs comme celle d'aujourd'hui ». Ironiquement, l'équipe invite les internautes à consulter son flux Twitter lorsque son propre blog n'est plus accessible.

Parmi les aspects particulièrement populaires du réseau Tumblr notons la fonctionnalité "ReBlog" qui permet à l'utilisateur de republier le billet d'un autre blog tout en créditant automatiquement son auteur. Twitter, Yahoo! Meme ou encore Wordpress.com s'en sont d'ailleurs largement inspirés ces derniers temps. Le mois dernier, quelques utilisateurs de la communauté 4chan avaient d'ailleurs soulevé que plusieurs membres de Tumblr prenaient soin d'effacer les crédits et avaient menacé de mener une attaque de type DDoS contre le réseau. Rien n'indique cependant que la panne fut bien causée par un groupe de hackers.

Sans doute pour faire face à cette croissance fulgurante et pour palier à ces erreurs de connexion trop récurrentes, Tumblr a levé le mois dernier entre 25 et 30 millions de dollars auprès du cabinet d'investissement Sequoia Capital. La société envisage également de s'étendre à l'Hexagone et a notamment ouvert cet été en bêta une déclinaison française de son service.
le 06/12/2010 à 00:00
Ecrire un Web service Partie 2
La partie 2 de l'article « Ecrire un web service en PHP » vient de paraître sur le site Design Folio.

L'article va se décomposer en plusieurs parties, qui seront :
- Définir les services de l’interface, par l’intermédiaire du WSDL
- Mettre en œuvre le service. Cela se fait avec le langage PHP.
- Déployer le service sur votre serveur Web

Vous découvrirez étape par étape l'ensemble des opérations à faire, pour installer votre propre service, illustrés avec des scripts exemples.

- Ecrire un Web service partie 2
En s'intéressant de près aux récentes activités de Twitter, certaines pistes peuvent être évoquées quant à l'avenir du site de micro-blogging. Jugé proche de l'environnement Twitter, le nom de domaine TwitterSearch.com pourrait être racheté prochainement.Twitter a donc tenté la manière forte pour s'emparer de ce nom de domaine. Le site a lancé une demande auprès de l'Icann afin pouvoir l'acquérir. La procédure dite de l'UDRP (Uniform Domain-Name Dispute Resolution Policy) permet à l'autorité de trancher en cas d'un éventuel enregistrement abusif d'un domaine afin d'éviter les situations de cybersquatting (utilisation trop proche d'un domaine reconnu).

L'Icann doit donc consulter le registrar et le propriétaire du domaine afin de connaître ses motivations. A l'heure actuelle, TwitterSearch n'est pas en service mais appartient à une personne depuis 2007, restée pour l'instant anonyme.

Toujours est-il que si l'oiseau gazouilleur n'arrive pas à montrer les dents, il pourrait opérer un rachat du nom de domaine afin d'éviter une éventuelle confusion dans l'esprit des internautes. Une nouvelle annonce à venir alors que récemment, le service de micro-blogging a lancé plusieurs informations concernant des développements futurs. Un service d'informations, un Analytics, un cadavre exquis…
Après Place, Groups et prochainement Facebook Messages, le réseau social de Mark Zuckerberg a connu une nouvelle mutation le week-end dernier. Cette fois-ci, c'est le profil de l'utilisateur qui est directement concerné puisqu'une nouvelle version de ce dernier est accessible depuis ce week-end.

La nouvelle version du profil Facebook fait disparaître les onglets jusque-là présents en haut de la page, et fait passer les options de navigation sous la photo de profil, dans la colonne de gauche. Cette dernière a également été grandement épurée pour n'afficher que quelques fonctionnalités et les portraits d'amis, de façon aléatoire. Enfin, un petit résumé façon "curriculum vitae" fait son apparition sous le nom de l'utilisateur, en haut de page.

Un nouveau design qui, tout en allant à l'essentiel, renforce également l'aspect visuel du profil en mettant en avant les photos du membre et de ses amis. On note également que la colonne destinée à accueillir de la publicité s'est, au passage, considérablement élargie…

Ce nouveau modèle de profil ne sera pas imposé aux membres de Facebook avant un certain temps, mais il est d'ores et déjà possible d'y accéder en passant par la page consacrée à cette nouveauté. Attention, une fois la modification effectuée, impossible de revenir en arrière.
le 06/12/2010 à 00:00
Mieux exploiter PHP 5.3
Don Denoncourt a publié sur le site de IBM une aide autour de 2 fonctions disponibles à partir de PHP 5.3. Ces 2 fonctions sont « Lambdas » et « closures », souvent associées car assez proche et mal utilisées.

L'article rentre en détails dans le sujet et montre les points suivants :
- Présentation Lambdas : simplet et rapide
- Utilisation Lambdas
- Les closures
- Le comportement des closures
- Utilisation dans une classe
- Forcer les fermetures

Par ailleurs, l'auteur met à disposition les fichiers exemples de l'article pour que vous puissiez tester rapidement.

- Leveraging PHP 5.3 s lambdas and closures
Après sa fusion avec la plateforme de blogs Overblog puis l'intégration de la régie publicitaire eBuzzing, le groupe Wikio file la métaphore du média social en ouvrant une place de marché dédiée à la création de contenus, Wikio Experts. Le principe ? Recruter des "experts" en leur domaine, qui répondront à des appels d'offre portant sur la rédaction de textes sur un sujet donné, en échange d'une rémunération à base fixe, à laquelle s'ajoutera à terme une part de variable en cas de succès d'audience.

Financée par la publicité, et tout particulièrement par le lien sponsorisé, la plateforme doit permettre à Wikio de proposer à Google - et donc, à l'ensemble du Web - une réponse à toutes les questions qu'est susceptible de se poser l'internaute. Le groupe annonce une levée de fonds de 4 millions d'euros auprès de son actionnariat actuel, somme exclusivement dévolue à l'achat de « quelques centaines de milliers d'articles » qui viendront alimenter les différentes déclinaisons européennes de Wikio Experts.Demain, tous rédacteurs ?

Si les contributions spontanées sont les bienvenues, Wikio a d'ores et déjà dressé une liste de sujets proposée au travers de sa place de marché. Partagés entre une quinzaine de rubriques, ils visent à répondre à des problématiques bien concrètes. Celles que l'internaute peut rencontrer dans la vie tous les jours, mais aussi et surtout celles pour lesquelles aucune réponse pertinente n'est à l'heure actuelle proposée dans les premières pages de résultat de Google.

« Si vous vous intéressez aux dispositifs anti-aboiement pour chiens, vous allez essentiellement trouver des sites marchand sur Google, mais peu ou pas de contenus pertinents », prend comme exemple Frédéric Montagnon, cofondateur d'Overblog, pour illustrer la démarche. Au travers de Wikio Experts, on cherchera donc à recruter un internaute compétent sur le sujet, qui produira un contenu à même d'adresser la curiosité du quidam victime d'un animal de compagnie trop expressif. « On s'intéresse à la longue traîne », confirme Pierre Chappaz (Kelkoo, Wikio). Autrement dit, à tous les sujets entre lesquels il existe un rapport favorable entre intérêt des lecteurs et absence de contenus pertinents.

Et ces sujets, Wikio compte bien les identifier de façon précise : à l'aide d'outils publics tels que ceux que fournit Google (Trends), mais aussi à partir des technologies développées pour le moteur Wikio ou des statistiques remontant de la plateforme Overblog (11,4 millions de visiteurs uniques / mois en France selon Nielsen). « Aujourd'hui, nous surveillons 16 millions de mots clé », indique Frédéric Montagnon.Une écriture SEO compliant : optimisée pour Google

Le rédacteur d'un jour devra respecter un certain nombre de contraintes : titre imposé, répétition d'un certain nombre de mots clé associés à la thématique et longueur minimale ; l'idée étant ici d'obtenir un texte à même d'être référencé le plus efficacement par l'inévitable Google. Afin de garantir un certain niveau de qualité, Wikio teste ses rédacteurs sur un premier sujet libre, avant de leur donner le statut confirmé qui leur permettra de postuler à la rédaction rémunérée. Les articles resteront toutefois soumis à modération, notamment pour vérifier qu'il s'agit bien de contenus uniques.

Versées de façon automatique, via Paypal par exemple, les rémunérations s'échelonnent de 5 à 10 euros pour la plupart des articles. Pour certains, c'est un niveau de rétribution variable qui est proposé, avec par exemple 2,5 euros à la livraison, puis un maximum de 12,5 euros supplémentaires à venir au fil du temps, en fonction de l'audience générée et, bien sûr, des recettes publicitaires associées. Les participants seront réglés en droit d'auteur, comme le sont aujourd'hui les utilisateurs de la plateforme Overblog qui font appel à son programme de monétisation.Un Demand Media « à la française »

Cette idée d'une place de marché dédiée à la création de contenus éditoriaux n'est effectivement pas nouvelle. Le principal promoteur en est l'américain Demand Media (créé en 2006), dont la prochaine introduction en bourse pourrait porter la valorisation à une somme comprise entre 1,4 et 1,7 milliard de dollars selon certains analystes. Le modèle a depuis fait des émules, avec des initiatives telles que Associated Content (racheté par Yahoo en mai dernier pour 100 millions de dollars), Seed.com ou Suite101, qui s'est récemment lancé en France.

« Deux spécificités nous permettent de nous démarquer d'eux », commente Frédéric Montagnon. « La première, ce sont des technos très fortes que n'a pas Demand Media, au niveau de l'analyse sémantique par exemple. La seconde, c'est un parc de contributeurs extrêmement étendu. Nous avons par exemple 1,5 million de blogueurs sur Overblog, auxquels s'ajoutent 1,5 million de blogs indexés sur Wikio ». Ce riche panel produit déjà bien des contenus susceptibles d'être référencés et monétisés, qu'il suffirait de correctement agréger et mettre en forme.

Reste une question à même de faire frémir tout journaliste : peut-on vraiment acheter des contenus de qualité, à même de satisfaire la curiosité des internautes, à quelques euros la pièce, alors qu'existent déjà des millions de contenus encyclopédiques (Wikipedia) ou produits par des médias et supports spécialisés ? Difficile à croire à première vue, et l'on aura d'ailleurs vite fait de déceler des écrits un peu légers parmi les quelque 10 000 articles que propose déjà le site support, les-experts.com.Acheter le contenu au juste prix

Pour l'instant, aucun sujet n'est rémunéré plus de 15 euros, mais Wikio ambitionne à terme de fédérer de véritables experts - médecins, avocats, etc. - susceptibles de fournir des contenus à forte valeur ajoutée. « Un article comme "Comment renégocier son prêt immobilier" doit être écrit par quelqu'un qui connait le secteur, sinon ça n'est pas intéressant », explique Frédéric Montagnon. Et comme la thématique « prêt immobilier » est, sur la plateforme publicitaire de Google, associée à des mots clé particulièrement lucratifs, il devient envisageable d'acheter ce contenu quelques dizaines, voire centaines d'euros.

Derrière cette mécanique un brin complexe au premier abord réside une logique on ne peut plus simple : payer un article au juste prix, celui-ci n'étant pas déterminé par le postulant mais régi par les revenus potentiels. A partir du moment où la mécanique s'enclenche, il devient donc possible de payer plus cher un contenu prometteur. Ainsi, la qualité viendrait avec la rentabilité, quelques centaines de contributeurs suffisant alors à produire le haut du panier en matière d'articles à forte valeur ajoutée.

Reste à amorcer la pompe. Pour ce faire, Wikio vient de procéder à un nouvel investissement via ses actionnaires actuels - parmi lesquels les fondateurs, Lightspeed Ventures, Gemini ou TF1 - portant sur un montant de 4 millions d'euros. « Si la rentabilité du modèle est confirmée, nous lèverons à nouveau des fonds en 2011 pour assurer le développement européen », confie Pierre Chappaz. Montant avancé : entre 20 et 30 millions, histoire de vraiment « devenir le Demand Media européen ».

Pour l'instant, Wikio n'ambitionne toutefois pas de faire de son portail une marque, au sens média du terme. Plutôt que de développer des sites verticaux (spécialistes d'une thématique donnée), la base a donc vocation à rester horizontale et donc à embrasser le plus de sujets possibles. La dimension média n'est cependant pas laissée de côté. Au lieu d'être développée en propre, elle sera assumée par des partenaires, qui exploiteront les contenus Wikio sous leur propre marque. Le premier bénéficiaire en sera TF1, qui alimentera de textes made in Wikio des sites tels que Plurielles.fr (féminin) ou Excessif.com (actu ciné), puis rétrocédera une partie des recettes publicitaires ainsi générées. D'autres partenariats du même type sont d'ailleurs déjà en cours de négociation, histoire de « créer une nouvelle économie de fabrication du contenu » qui, si elle s'impose, ne sera pas sans conséquences sur les modèles actuellement en vigueur.
La mascotte de Firefox est-elle un renard de feu ou un panda roux ? Mozilla a récemment mis un terme à cet éternel débat en annonçant avoir adopté deux jeunes pandas roux, une espèce menacée. Les deux petites femelles sont nées le 14 juin 2010 au zoo de Knoxville, au Tennessee (USA).

Un site Internet créé pour l'occasion permettra d'en suivre les premiers pas pendant quelques mois. "Firefox Live" diffusera effectivement 24 heures sur 24 au travers de six caméras. La fondation donne rendez-vous aux internautes après chacun de leur repas, à 9 h, midi et 16 h heure locale (7 heures plus tard en France), périodes auxquelles ces pandas roux sont les plus actifs et les plus divertissants.

À l'heure du Web participatif, les internautes sont également mis à contribution pour leur trouver un nom. Une fiche décrivant leurs principaux traits de caractère peut d'ailleurs servir de source d'inspiration. On y apprend notamment que leur père s'appelle Chewbacca.

Mozilla y voit un moyen original de préserver la nature, en sensibilisant les internautes, tout comme elle préserve l'ouverture du Web. Toutes les informations concernant cette initiative sont accessibles depuis le site Firefox Live, sur lequel on devrait prochainement retrouver la diffusion en direct… en Flash !
LoadingChargement en cours