News WEB

L'Internet Corporation for Assigned Names and Numbers (ICANN), l'organisme en charge de la gestion des noms de domaine sur Internet, a autorisé hier le dépôt d'adresses Web entièrement en caractères non latins.

« Pour la première fois dans l'histoire d'internet, des caractères non latins sont employés dans la partie terminale du nom de domaine », a déclaré l'ICANN. 3 pays arabes ont la primeur de ce projet, quoi couvait depuis deux ans : l'Arabie Saoudite, les Emirats arabes unis et l'Egypte. A noter que les adresses de ces pays s'écrivent de droite à gauche.Le premier site à utiliser un nom de domaine arabe est celui du ministère de la communication égyptien, qui doit voir son nombre de visites littéralement exploser aujourd'hui, puisque le monde entier utilise son adresse pour expérimenter cette nouveauté. Le blog de l'ICANN indique que les adresses sont également accessibles depuis les téléphones mobiles.

D'autres langues non latines auront prochainement droit au même service, parmi lesquelles le russe, le chinois, le cingalais, le tamoul, le japonais ou encore le thaïlandais. L'ICANN estime que plus de la moitié des 1,6 milliards d'internautes utilisent des langues qui ne sont pas basées sur des caractères latins.

Maintenant que l'ICANN a lancé les noms de domaines en arabe, l'organisme va pouvoir se repencher sur ceux en .xxx… Mais ça, c'est une autre histoire !
Dans un communiqué de presse, le constructeur japonais NEC annonce avoir mis en place un système permettant de détecter en quelques secondes si une vidéo mise en ligne par un internaute est protégée par des droits de propriété intellectuelle.

Pour ce faire, NEC dispose d'une base de données de vidéos signées à l'aide d'un certificat ; plusieurs signatures sont ainsi générées par le contenu-même de la vidéo. NEC explique qu'une vidéo altérée, par exemple avec des sous-titres, présenterait donc toujours assez de points communs avec la version originale protégée. Par ailleurs, cette détection s'effectuerait en quelques secondes seulement.

Une signature est générée pour chacune des images d'un clip en se basant sur la luminosité, les contrastes de couleurs ainsi les différentes formes apparaissant à l'écran. Pour l'heure ce dispositif s'avérerait particulièrement performant puisque le processus de détection fonctionnerait dans 96% des cas avec un taux d'erreur de 0,0005 %.

Dans la mesure où une signature est généré pour chacune des images, la technologie serait tout autant performante pour les petits clips de quelques minutes tels que ceux partagés sur les plateformes communautaires. La firme précise que son système est compatible avec les PC classiques. C'est ainsi qu'une machine traditionnelle mono-coeur cadencée à 3GHz serait capable d'analyser 1000 heures de vidéo en... 1 seconde.

Avec cette technologie, NEC devrait bientôt rivaliser avec YouTube qui présentait un système de filtrage similaire en janvier 2009 baptisé Content Manager.
Christophe Collet est directeur général France d'Adenyo. Ex-SBW, Adenyo se présente comme un futur géant du marketing mobile. Adenyo vient de réaliser une levée de fonds de 26,9 millions de dollars, financée à hauteur de 17,2 millions par Genuity Capital Market, et de 9,7 millions de dollars par des placements privés. Christophe Collet a bien voulu répondre à quelques questions sur cette opération et sur les tendances pour l'après 2010, qu'Adenyo considère comme l'année zéro du mobile.

Bonjour, Christophe Collet. Adenyo annonce une levée de fonds de 26,9 millions de dollars. Quelle sont vos ambitions avec cette opération ?

Aujourd'hui, Adenyo est leader en France et au Canada sur les technologies mobiles de publicité. Avec la levée de fonds, nous allons pouvoir mettre en place une croissance organique, en renforçant les équipes existantes, et tenter de conquérir de nouveaux marchés, notamment les Etats-Unis. Cela se fera soit par des ouvertures de nouveaux bureaux, soit par des acquisitions. Nous considérons que 2010 est l'année du mobile. Depuis huit ans que nous travaillons sur ce marché, nous avons besoin d'argent pour nous développer et assurer la croissance. Nous avons profité de la levée de fonds pour effectuer un rebranding. L'ancien SBW devient Adenyo, une marque unique, et prononçable dans n'importe quel pays du monde. Ca ne correspond pas à une acquisition ou quoi, c'est vraiment un rebranding.

Un marché qui bouge, mais qui risque d'être rapidement encombré par Google et Apple...

Oui et non. Nous sommes propriétaires de notre technologie, avec des produits à fort potentiel. Ce que Google et Apple ont racheté, ce sont des inventaires publicitaires et des technologies d'Adserving. Nous, nous mettons en avant notre connaissance du mobile et des produits. En France, 40% de la publicité mobile passe sur nos serveurs. Nous avons une plateforme de statistiques sur 100% du trafic mobile, un outil de codage à la volée, et une plateforme d'envoi de SMS notamment. Donc nous ne sommes pas concurrents de Google ou d'Apple. Notre but, c'est de rendre ces outils plus performants.

Nous ne sommes pas dans une logique où nous devons chercher de l'espace publicitaire à vendre. Notre métier est de mettre à disposition nos technologies à des éditeurs, qui en assureront la commercialisation. C'est pour ça que des applications comme Foursquare ou Plyce, loin d'être nos concurrents, sont au contraire une cible pour nous. Ils peuvent utiliser nos outils, pour développer des sites ou des applications mobiles. D'ailleurs nous les ciblons déjà. Par exemple, nous travaillons pour le groupe Canal +. Nous avons fait leur application iPhone.

C'est un marché sur lequel on annonce d'excellentes performances. Est-ce qu'il va y avoir un appel d'air pour les éditeurs de technologies publicitaires ?

Il faut voir que c'est un marché encore très marginal. En France, il compte pour 25 millions nets. Même si on connaissait une hausse de 100% pour 2010, ça restera un marché très petit face au marché publicitaire global, ou même sur le web. Aujourd'hui, s'il y a de bonnes performances, c'est dû au support. Le téléphone portable est un environnement très personnel. Avec des technologies de qualité, on va pouvoir délivrer le bon message à la bonne personne, au bon moment. Donc oui, je pense que les annonceurs vont y venir. Mais quand on dit que c'est l'année zéro pour ce marché, c'est parce que les formats ne sont pas encore figés, et les modèles économiques pas encore ancrés.

On parle d'un marché de 4 milliards de dollars dans trois à quatre ans. C'est possible. Mais il y a un effet de nouveauté, une curiosité vis-à-vis des applications. Sauf que quand 100 personnes téléchargent une applications, seuls 20 l'utilisent encore à J+1. Cela dit, il y a d'excellentes perspectives : on va pouvoir faire un vrai ciblage, et c'est ce qui fera sans doute que les performances chuteront moins que sur le web. Mais quel modèle économique adopter ? On va probablement suivre le web. Dans deux ans, il y aura plus de connexions Internet depuis les mobiles que les PC. On est au début, alors peut-être qu'une bulle va se créer, mais ça dépendra surtout du contenu. Par contre, on peut annoncer qu'il y aura une course aux contenus.

Une bataille des systèmes d'exploitation est en cours. Est-ce une difficulté pour vous ?

C'est vrai que quand on sort un site mobile, par exemple, on doit l'optimiser pour 2 500 tailles d'écrans différentes disponibles sur le marché. Ce qui nous assure du travail pour quelques années encore. Pour que ce marché évolue avec succès, il y a trois clés : il faut des terminaux sympas pour la navigation, et l'exemple de l'iPhone montre qu'on y parvient désormais, il faut une vitesse de débit suffisante, ce qui n'est pas tout à fait le cas, mais qui arrivera bientôt avec des débits comme celui de la 4G, et il faut des forfaits avec un montant fixe par mois et une vraie navigation illimitée. C'est presque réuni aujourd'hui, et l'augmentation du débit devrait amener à un essor du mobile. C'est donc notre capacité à fournir des technologies pour sortir des outils facilement maniables qui va être l'enjeu.

Aujourd'hui, c'est vrai qu'il y a Android, iPhone OS, mais il ne faut pas oublier Nokia. Finalement, quand on regarde, Apple se taille 27% des parts de marché, alors que Nokia est à plus de 40%. En terme de simplicité de développement, on gagnerait évidemment à avoir un appareil unique, mais tout dépend si on parle de site mobile ou d'applications embarquées. Je pense qu'on se dirigera vers une solution hybride, avec des sites web multiplateformes, tandis que les applications dépendront toujours du système. C'est un vrai problème pour les applications embarquées, surtout. Quand on doit développer pour plusieurs plateformes, il faut parfois coder en C++, parfois en Objective-C. Ca multiplie les coûts pour les annonceurs, puisqu'on ne peut pas faire d'économies d'échelle.

Cependant, aujourd'hui, je n'ai pas le don d'ubiquité, et il est difficile de dire qui va gagner. Certes, Android a ses chances, mais il se passera sans doute la même chose que dans le monde PC : il y aura toujours 15 à 20% du marché qui sera composé d'Apple addicts. Ca ne complique pour autant pas forcément la tâche. Pour l'instant, le site web mobile est un peu mis entre parenthèses, mais il reviendra en force, du fait même de la fragmentation des plateformes. Aujourd'hui, ce sont surtout les débits limités qui font la force des applications embarquées. Elles permettent d'intégrer en local le graphisme, la navigation, etc. Mais quand les débits seront suffisants, ce ne sera plus une limitation, et donc le site mobile reviendra. D'autant qu'on profitera largement du Html 5.

On voit d'ailleurs que quand un éditeur veut sortir une application, il se concentre d'abord sur l'iPhone, et qu'Android ou autres viennent seulement dans un second temps. C'est une tendance qui disparaîtra ?

C'est une tendance à relativiser pour un annonceur. Si on cible les 15-25 ans, il ne faut pas aller sur iPhone. Beaucoup d'éditeurs l'ont déjà fait, mais les autres plateformes seront aussi probablement une source de succès. L'iPhone reste cher, et même lorsqu'il est subventionné par les opérateurs, le forfait derrière a un coût élevé. C'est d'ailleurs le cas pour tous les smartphones haut de gamme, type HTC ou autres. Tous ceux qui permettent une bonne navigation. Il y a certes un côté mode, et également un usage facilité : on peut aller sur un web de qualité avec ces appareils, alors que sur d'autres plateformes, on ne va pas forcément aller naviguer. Apple a créé une demande, et tous les autres constructeurs répondent à leur manière. La grande question du moment, sur les forfaits, c'est : Que va faire Free ? Si la logique est la même que pour l'Internet fixe, cela va profiter à tout le monde.

Cela dit, ce que j'attends vraiment pour développer encore plus le marché, ça reste un débit supérieur pour une navigation fluide tout le temps, et une vraie mesure de l'Internet mobile. Il manque des outils de mesure aujourd'hui. Il y a Médiamétrie en fin d'année, qui donne enfin une visibilité. Au-delà, Nielsen, TNS Sofrès... On a des rapports de 1 à 2 pour deux études différentes. Nous avons besoin de datas consolidées et indépendantes.

Christophe Collet, je vous remercie.
Google a dévoilé hier une toute nouvelle interface pour son moteur de recherche, cette dernière est le fruit d'une phase de test de plus de six mois. Outre un nouveau logo aux couleurs plus vives, plusieurs options de filtrage ont été implémentées.

Une fois sa requête tapée, l'internaute retrouvera une barre latérale dynamique placée à gauche. Cette dernière permet de restreindre la recherche par types de contenu (images, vidéos, cartes, actualités, livres ou encore blogs et mises à jour communautaires). Ce panneau latéral embarque trois technologies développées au cours de ces trois dernières années à savoir : Universal Search (permettant de mixer différents types de médias), Search Options ainsi que Google Squared, initialement dévoilé pour organiser les résultats d'une recherche sous forme de tableau, et non sous forme de liste.

Aux Etats-Unis nous retrouvons également cette barre latérale sur les versions iPhone et Android du moteur de recherche.
Facebook s'est payé une belle frayeur. Une faille dans le tchat du site était librement exploitable jusqu'à ce mercredi. Les services du réseau social ont du corriger la vulnérabilité en vitesse. Pourtant, l'information a fait le tour du Web et une vidéo montre comment il était possible d'utiliser la faille.

A la loupe, il était très simplement possible d'accéder aux informations contenues dans les tchats d'un membre de Facebook. L'onglet de visualisation de la messagerie de n'importe quel ami était alors visible. Comble de l'ironie, il se trouve que cette faille utilisait une des fonctions chargée de paramétrer la confidentialité des utilisateurs. Techniquement, il suffisait de se rendre dans ses propres paramètres de confidentialité, d'aller dans l'onglet « Informations du profil » et cliquer sur afficher un aperçu de mon profil. Pire encore, de cette même page on pouvait également voir les requêtes d'ajout d'ami en attente.

Le site Techcrunch a donc averti Facebook qu'il devait agir en urgence. Un patch de sécurité a été édité dans la nuit vers les 400 millions de membres du site. En attendant, par mesure de sécurité, Facebook avait interrompu temporairement son tchat, le temps que le bug soit corrigé.

Toujours est-il que cette faille tombe mal. Critiqué par les Cnil européennes mais aussi par certains gouvernements, Facebook fait face à des véritables demandes en matière de transparence et de visibilité. De même, les changements successifs de politique de confidentialité commencent à en agacer certains. A l'avenir, il n'est donc plus certain qu'un simple message officiel de Facebook expliquant « Nous nous excusons pour la gêne occasionnée » ne suffise.
Toujours plus populaire aux États-Unis, le site communautaire Yelp, spécialisé dans les opinions locales des internautes, débarque finalement dans la langue de Molière. Il s'agit d'ailleurs de la première version non-anglophone du site.

Yelp se présente sous la forme d'un portail sur lequel il est possible de rechercher un commerce en particulier et de lire les opinions laissées par les internautes. Différentes catégories sont proposées, de l'animalerie au bar du coin en passant par les services publics ou les salons de beauté. Yelp propose également quelques fonctions communautaires avec par exemple la possibilité d'ajouter à sa liste d'amis des personnes ayant les mêmes centres d'intérêts et se déplaçant dans le même type d'endroits que vous.

Une version mobile, pour l'instant en anglais, est également disponible sur les smartphones Android, BlackBerry, iPhone et Palm Pre. Cette dernière permettra aux mobinautes en déplacement d'obtenir de plus amples informations sur les hôtels et restaurants du coin par exemple. En fin d'année dernière plusieurs rumeurs spéculaient sur un rachat éventuel par Google. Finalement la firme de Mountain View a développé sa propre fonctionnalité baptisée "A proximité". Cette dernière est directement intégrée au moteur de recherche mobile et couplée au service de cartographie Google Maps.

Jeremy Stoppelman, PDG de Yelp, explique sur son blog officiel : "Mesdames et Messieurs, Yelp débarque en Europe ! Dotée de fortes traditions culinaires, artistiques et culturelles, la France était un choix naturel pour le lancement de notre premier site non-anglophone".
L'éditeur d'antivirus roumain BitDefender propose désormais son propre service de réduction d'URL, nommé Saf.li.

La particularité de cet URL shortener par rapport aux autres, c'est que BitDefender s'assure de la viabilité du site sur lequel l'adresse raccourcie renvoie. Chaque mini-URL créée bénéficie d'une page de statistiques, à l'instar d'autres services du même type comme Bit.ly, mais avec, en plus, un rapport de scan qui garantit que la page ne contient ni virus ni procédés de phishing.

Saf.li offre ainsi un service supplémentaire rassurant qui aidera sans doute le site à trouver sa place dans le petit monde des simplificateurs d'URL, très utilisés sur les réseaux sociaux, et en particulier sur Twitter.
Alors que l'Hadopi promet d'envoyer les premiers e-mails pour la fin du mois de juin, certains internautes ont déjà reçus de faux messages d'alerte. Certains sites jouent sur l'actualité pour tenter de mettre en défaut les communications de la Haute autorité pour la diffusion des oeuvres et la protection des droits sur Internet. Même un faux compte Twitter existe.

Certains blogs commencent à montrer comment il est possible de brouiller les communications de l'Hadopi. Il semble donc que certains sites permettent d'envoyer des faux e-mails d'alerte en cas de téléchargement illégal. La riposte graduée avant l'heure. Pour autant, rien de tout cela n'est vrai. Contactée par nos soins, l'Hadopi a bien confirmé qu'« il n'est pas possible que les premiers envois aient été faits ». Même si le faux compte Twitter de l'Hadopi reprend l'information…

Concrètement, les premiers envois dépendent des acteurs du numérique mais aussi d'une volonté politique. La riposte graduée sera effective lorsque la Cnil aura donné son accord pour la collecte automatisée d'adresses IP par les ayant-droits. D'un autre côté, les décrets d'application devront être publiés après décision du ministère de la Culture et de l'Intérieur. Sans ces documents officiels, aucun envoi n'est possible…

Parallèlement, la loi Loppsi, chargée de sanctionner les délits de contrefaçons commis en ligne prend du retard. Déjà votée par l'Assemblée nationale, le Sénat doit encore se pencher sur le texte porté par le ministère de l'Intérieur. La chambre haute a donc décidé de reporter la lecture du texte. Pour éviter que la loi ne prenne trop de retard, le gouvernement a décidé de mettre les pieds dans le plat. Sur PCInpact, il explique que « le projet de loi d'orientation et de programmation pour la performance de la sécurité intérieure (LOPPSI) sera inscrit, à la demande du Gouvernement, à l'ordre du jour de la session extraordinaire de septembre au Sénat ».

Charmant programme qui attend les internautes. Dès le 21 juin, l'Hadopi se mettra en place et la loi Loppsi 2, introduisant le filtrage de sites et les espions logiciels de la police, devrait finalement être examinée par les sénateurs à la rentrée. Un programme chargé.
Lors de la conférence Web 2.0 Expo, Microsoft a présenté hier le service web Spindex qui promet de rassembler sur une même page l'ensemble de vos activités communautaires au travers de différents réseaux sociaux.

Lili Cheng, la responsable générale du département de recherche Microsoft FUSE, explique dans un billet que les réseaux communautaires "ne marquent que le début d'une transformation plus large qui changera de manière radicale le web". Avec Spindex, l'internaute sera en mesure de concentrer les mises à jour de ses contacts sur Twitter, Facebook et de repérer les tendances globales qui se dégagent de ces activités. Le service collecte également les notes enregistrées au sein d'Evernote ou tout autre flux RSS.

Plus qu'un simple agrégateur de contenu personnalisé, Spindex embarque également l'interface de programmation de Bing afin de suggérer du contenu relatif à une entrée permettant d'approfondir un sujet de discussion. Actuellement en "Technical Preview", Spindex est disponible sur invitation à partir de cette page.
Des députés américains viennent de publier une proposition de loi pour garantir la protection des données privées des internautes. Dans sa version actuelle, elle s'appliquerait à toute entreprise ou association qui collecte les informations de plus de 5 000 personnes en une année.La proposition de loi (pdf en anglais), qui émane de deux membres de la sous-commission du Congrès sur les Communications, technologies et Internet, Rick Boucher et Cliff Stearns, veut définir quelles informations peuvent être enregistrées et utilisées dans une stratégie d'opt-out (où l'internaute doit expressément signaler qu'il ne souhaite pas voir ses données utilisées), et celles qui devront requérir son consentement.

La proposition de loi distingue deux catégories de données : celles dites protégées et celles confidentielles. Les premières comprennent entre autres le nom, les adresses email et postale, les empreintes de doigts et scanners rétiniens, les adresses IP et les numéros de Sécurité social et de carte de crédit. La deuxième catégorie inclut les dossiers médicaux, l'origine ethnique, les informations financières, la géolocalisation précise et les orientations sexuelle et politique.

Pour cette catégorie la plus confidentielle, la proposition de loi prévoit qu'une organisation « ne peut collecter ou divulguer aucune information sans avoir affiché au préalable les conditions de respect de la vie privée, et obtenu une autorisation explicite de l'internaute. » Pour les informations protégées, une organisation ne doit pas « collecter, utiliser ou divulguer de telles informations pour aucune raison, sauf si une note sur la vie privée a été affichée et que l'internaute a donné son consentement. » Différence de taille dans le cas des données protégées : le consentement peut être implicite.

La proposition de loi veut également limiter « la possibilité de partager les données avec des tiers si un consentement explicite n'a pas été donné d'abord » par l'internaute. Ces règles ne s'appliqueraient évidemment pas pour les agences gouvernementales américaines.

La proposition de loi n'a pas été très bien accueillie outre-Atlantique. Si on se doute que les lobbies pro-publicité estiment qu'elle va trop loin, les avocats du droit à la protection de la vie privée n'en sont pas beaucoup plus heureux : elle serait inadéquate, car elle utilise le principe de la déclaration de politique de protection de la vie privée, qu'ils considèrent comme une forme d'opt-out sur de nombreux sites qui l'appliquent déjà. Du côté des groupes commerciaux et publicitaires, on argumente que le texte est trop flou, et pourrait tout simplement entraver leur capacité à employer de la publicité ciblée sur des sites web.
LoadingChargement en cours