LA GLOBULE

Inscris le 25/09/2002 à 10:40
  • Site web
  • Nombre de sujets
    47
  • Nombre de messages
    8 345
  • Nombre de commentaires
    142
  • Nombre de news
    8 346
  • Niveau en PHP
    Excellent

Ses dernières news

Depuis hier, le menu de la Freebox HD s'est enrichi d'une nouvelle rubrique, nommée Free Store : dédiée à l'installation et à l'utilisation d'applications certains sont gratuites, d'autres payantes sur téléviseur, la fonction Free Store avait été annoncée il y a de longs mois par Free qui l'a finalement lancé sans grand tapage.

9 rubriques sont proposées :
- Mes logiciels, qui rassemble les applications téléchargées par l'utilisateur,
- Top 12 Gratuit, qui comme son nom l'indique propose les 12 applications gratuites les plus téléchargées,
- Top 12 Payant, qui proposera, à terme, le top 12 des applications les plus achetées pour le moment, seules 2 sont disponibles
- Top 12 Abo. Affiche une sélection d'appli qui nécessitent un abonnement mensuel.
- Vient ensuite le classement par catégories : Applications affiche la totalité des logiciels disponibles, moins d'une vingtaine pour l'instant, Appli Réseaux, Jeux et Jeux Réseau organise quant à elle les applications selon leurs usages.
- On note enfin, un peu à part, une catégorie Adulte qui nécessite le code parental de la Freebox HD, mais aucune application n'est pour le moment disponible dans cette section.

On l'aura compris, le Free Store démarre avec peu d'applications, mais la plupart étant gratuites pour l'instant principalement des jeux il est possible d'expérimenter le service sans débourser un sou. Les rares logiciels payants sont proposés au prix de 99 centimes, un achat ajouté le cas échéant à la facture Free mensuelle. Techniquement il ne faut néanmoins pas s'attendre à une véritable révolution, les applications proposées actuellement développée avec le toolkit Elixir sont plutôt basiques et se contentent de reprendre des standards du jeu (Solitaire, Morpion, Tetris). De quoi patienter entre deux programmes télé en somme, même si le potentiel est là, en particulier du coté des appli pratiques comme en témoigne celle dédiée à la météo.

Le portail étant désormais lancé, il n'y a plus qu'à attendre qu'il s'étoffe pour juger de son véritable intérêt.
Adobe vient de mettre en ligne une nouvelle version du lecteur Flash destiné aux machines équipées de Mac OS X. Estampillée 10.1.82.76, elle s'inscrit dans le prolongement des essais conduits en la matière depuis le mois d'avril et apporte comme principale nouveauté la prise en charge de l'accélération matérielle par la carte graphique des vidéos Flash encodées en H.264. Avec cette nouvelle version, les utilisateurs de Mac devraient donc constater une baisse de la charge processeur lors de la lecture de vidéos compatibles, une partie des calculs de rendu étant déportés vers le GPU.

D'après Adobe, cette nouvelle version devrait donner satisfaction sur les ordinateurs Mac équipés de l'un des trois GPU NVIDIA suivants : GeForce 9400M, GeForce 320M et GeForce GT 330M. Les récents iMac équipés d'une carte Radeon ainsi que les derniers Mac Pro n'en profiteront donc pas. Il faudra par ailleurs disposer, au minimum, de Mac OS X 10.6.3.

L'éditeur signale quelques limitations d'usage. L'accélération matérielle ne sera ainsi pas sensible sur les vidéos YouTube estampillées 480p, du fait d'une résolution réelle de 864 x 480 pixels qui n'est pas correctement prise en charge par les pilotes NVIDIA. Il précise par ailleurs que l'accélération matérielle ne peut fonctionner que sur deux instances simultanément.

Après installation, les utilisateurs ne devraient pas remarquer dans le coin supérieur gauche des vidéos lues au travers du Flash Player le petit carré blanc présent sur la capture ci-dessous. Sa présence était le signe que l'accélération matérielle était bien active sur les versions de test. A récupérer, depuis un Mac, à partir de ce lien.
Les changements présagés en début de mois concernant l'interface de Gmail sont aujourd'hui plus que jamais d'actualité, puisque le service de courrier électronique de Google vient de bénéficier d'un petit coup de neuf.

Au programme, une interface de contacts améliorée, couplée à un lien disposé juste en dessous de l'accès au dossier principal de la messagerie. « Les contacts fonctionnent maintenant comme le reste de Gmail, si vous savez vous servir de Gmail, vous serez désormais bien plus à l'aise pour gérer les contacts » explique le blog officiel du service. En cliquant sur "Contacts" dans le menu supérieur, un sous menu fait son apparition en dessous, remplaçant celui dédié aux messages. La fonction "Liste de tâches" a également été remontée dans le menu, mais peut être masquée si l'utilisateur ne désire pas s'en servir.

D'autres nouvelles fonctions ont également fait leur apparition dans la section contacts, parmi lesquelles de nouveaux raccourcis clavier, un tri plus précis, la possibilité d'ajouter des champs d'information personnalisés ou encore de prendre plus de notes.

Le blog de Gmail indique par ailleurs que ces modifications ne sont pas encore opérationnelles dans Google Apps, dans la mesure où le développement n'est a priori pas encore terminé.
Deux embauches clés pour Twitter, avec l'annonce du recrutement de Dan Coughlin, qui vient de passer quatre ans chez Facebook, et Amanda Levy, qui était jusqu'ici responsable des ventes chez Yelp. Le premier va devenir directeur des ventes pour la région Est des Etats-Unis, l'autre aura la même fonction dans l'Ouest. C'est ainsi que Twitter entend « mettre sa plateforme publicitaire sur sa rampe de lancement. »

Ils auront en charge la mise en place des produits promus par Twitter, autrement dit les tweets promus et les tendances (Promoted Tweets et Trends). Dans sa recherche d'une monétisation, Twitter semble être prêt à toutes les expériences, et souhaite avec ses deux nouveaux collaborateurs se pencher sur l'aspect publicitaire de ces deux produits. Les offres Earlybird semblent notamment une piste fouillée par le réseau.

Une volonté qui justifie l'embauche de deux directeurs expérimentés. En effet, Dan Coughlin notamment a travaillé pour Yahoo pendant cinq ans avant son expérience à Facebook, et est passé par des régies publicitaires comme DoubleClick ou MarketWatch. Amanda Levy, vendeuse en chef chez Yelp, semble pourvue d'une expérience de management utile à Twitter : selon le réseau de micro-blogging, elle gérait une équipe d'une centaine de personnes.
Le groupe Rentabiliweb a annoncé mardi matin l'acquisition de 100% des parts de la régie publicitaire Edencast, spécialiste des outils de marketing à la performance et éditeur d'un réseau de supports média, notamment composé des sites Starwizz.com et Abrutis.com.

La transaction porte sur un montant de 11,5 millions d'euros à la signature, ainsi que sur un second volet en numéraire qui sera calculé sur les résultats d'exploitation 2010 et 2011. Pour l'année en cours, Edencast table sur un chiffre d'affaires de 11,2 millions d'euros.

En tant que régie, Edencast revendique un réseau de 10.000 sites, représentant 500 millions d'affichages mensuels. La société développe également sa propre plateforme d'affiliation. Elle officie également dans les domaines du référencement payant et de l'email marketing et comptait déjà parmi ses clients Rentabiliweb.

« Grâce à la formidable expertise d'Edencast en matière d'acquisition de trafic, nous optimisons l'un des leviers essentiels du métier de monétiseur de contenus : le coût de recrutement des clients », a déclaré dans un communiqué Jean-Baptiste Descroix-Vernier, président de Rentabiliweb. « Cette opération s'inscrit dans le cadre d'une stratégie d'acquisition tactique de cibles rentables, de tailles moyennes, et dont l'expertise technique et marketing permet d'enrichir l'offre et d'augmenter la rentabilité des services proposés de Rentabiliweb ».

Spécialiste de la monétisation d'audience, avec plus de 600 sites et services allant du divertissement à la rencontre en passant par les solutions de paiement en ligne, Rentabiliweb a fait son entrée sur Euronext fin janvier.
Quel avenir pour la neutralité du Net ? La question, qui fait débat en France, en Europe, mais aussi aux Etats-Unis, a fait l'objet d'une étude commanditée par la secrétaire d'Etat au Numérique. Il en résulte un rapport intitulé « La neutralité de l'Internet. Un atout pour le développement de l'économie numérique », remis au Parlement fin juillet. Le quotidien Libération en a obtenu une copie et livre quelques morceaux choisis de ce texte qui doit servir de préalable à la position officielle du gouvernement sur le sujet. L'avis exprimé au long de ces 45 pages ne ravira pas les partisans d'une neutralité des réseaux érigée comme principe absolu.

Le principe de neutralité du Net suppose pour mémoire que l'on exclue toute discrimination à l'égard d'un contenu, de sa source, ou du moyen de communication exploité pour y accéder. Sur les réseaux, les données doivent donc être transférées sans modification et sans qu'un protocole soit privilégié par rapport à un autre. Si les éditeurs de service y adhèrent le plus souvent, la donne est plus complexe du côté des opérateurs, chez qui on souhaite pouvoir gérer le trafic de données et faire participer les plus gros consommateurs de trafic aux frais de maintenance et de développement du réseau.

Neutralité du Net contre impératifs économiques

Une logique économique à laquelle semble adhérer le gouvernement. « La préservation d'un Internet ouvert n'interdit pas la mise en place de mesures techniques, notamment de gestion de trafic », fait ainsi valoir le rapport, en soulignant tout de même que « les interventions des acteurs techniques (...) (doivent) répondre à des objectifs légitimes, rester aussi limités que possible et être appliqués de façon transparente et non discriminatoire ».

Les différents débats consacrés à la question laissaient d'ailleurs transparaitre une menace latente : si les plus gros consommateurs de bande passante ne sont pas mis à contribution pour financer les infrastructures, c'est le consommateur final, l'internaute, qui finira par l'être. Selon cette logique, il ne serait donc pas impossible, selon le rapport, d'assister à « une augmentation du prix des forfaits ou un plafonnement de consommation dans les forfaits permettant d'adapter la facturation à la consommation ».

Régulation des débits, garantie de qualité de service

Soulignée par Libération, une comparaison inédite étaie le rapport, dressant un parallèle entre tuyaux numériques et poste traditionnelle. « Le facteur fait ses meilleurs efforts pour délivrer le courrier mais celui-ci peut être retardé en cas de surcharge, et l'expéditeur n'a pas la garantie que le courrier soit délivré avec succès. Cependant, l'expéditeur peut payer un complément pour avoir des garanties de qualité de service ».

Ici, on retrouve la controverse mise en exergue par les rumeurs d'un accord entre Verizon et Google ces derniers jours, avec un opérateur qui serait prêt à accorder une qualité de service supérieure aux fournisseurs de contenus qui acceptent de payer pour cet avantage concurrentiel. A comparaison, comparaison et demi. Les défenseurs de la neutralité du Net préfèrent envisager les tuyaux comme une autoroute, dont la société gestionnaire ne gère que les accès et la facturation associée, sans intervenir sur les véhicules qui y circulent.

Entre autres points, le rapport ne pouvait finalement pas faire l'impasse sur la problématique du filtrage des contenus, problématique que l'on retrouve aussi bien au niveau des lois Hadopi et Loppsi que dans la récente réglementation qui encadre la libéralisation des jeux d'argent en ligne. Sur ce point, nulle surprise : « les agissements illicites (fraudes et escroqueries, délits de presse, atteintes à la vie privée, contrefaçon, piratage des oeuvres protégées par le droit d'auteur, diffusion de contenus pédopornographiques, etc.) doivent être poursuivis et sanctionnés, ce qui peut impliquer la mise en place de dispositifs de filtrage ou de blocage de certains contenus », lira-t-on en page 8.
Facebook aurait-il peur de Google et de son potentiel réseau social orienté social gaming ? Le site Develop a rapporté hier que le site de Mark Zuckerberg est actuellement à la recherche d'un responsable pour son secteur jeux, qui sera chargé de traiter avec les éditeurs et les studios de développement.

« Facebook est à la recherche d'un chef de file pour son équipe de développement de partenariats stratégiques, pour développer et renforcer les relations fructueuses entre les partenaires internes et externes, ainsi que les intervenants dans l'industrie du jeu » peut-on lire dans l'annonce fraîchement parue sur le site.

Le but de l'embauche n'est pas difficile à cerner, après l'annonce récente du rachat de l'éditeur de jeux sociaux Slide par Google, et les rumeurs récurrentes concernant le développement d'un nouveau site de réseautage social axé sur le jeu par la firme de Moutain View.

Facebook chercherait donc à renforcer sa position dans ce secteur dans lequel il est déjà fortement présent : rappelons que sur les 500 millions de comptes utilisateurs que recense le site, plus de 60 millions jouent quotidiennement au seul jeu Farmville, proposé sur la plateforme par l'éditeur Zynga. Un chiffre qui donne une vague idée de l'impact du social gaming sur le réseau social : une récente étude américaine a également mis en rapport l'arrivée massive d'internautes de plus de 50 ans sur Facebook avec la pratique du social gaming.

Dans l'attente des confirmations ou des informations des rumeurs concernant les manoeuvres prochaines de Google, une chose est sûre : dans le doute, la résistance s'organise...
Après les satellites, ce sont des micro-drones que Google compterait mettre à contribution pour améliorer son service de cartographie Google Earth : la firme de Moutain View aurait en effet réalisé une commande auprès de Microdrones GmbH, une entreprise allemande spécialisée dans la construction d'objets volants clairement identifié aux allures d'A.R.Drone de Parrot, capables de survoler des espaces de plusieurs kilomètres à une vitesse maximale de 80 km/h, et de réaliser des prises de vues de bonne qualité comme en témoigne la vidéo ci-dessous.

L'information a été confirmée par le PDG de la société allemande, Sven Juerss, qui espère un partenariat à long terme avec Google : « Nos drones sont superbement adaptés pour la réalisation de mises à jour de la cartographie de Google Earth » a-t-il commenté, ajoutant qu'ils pourraient également permettre de survoler les parcs éoliens dans lesquels Google a récemment investi.

Google n'a pas communiqué officiellement sur ce potentiel investissement qui pourrait s'élever conséquent selon l' "armée" de micro-drones commandée, puisque le site Botjunkie indique que le coût de chaque appareil pourrait avoisiner les 60 000 dollars. Quant aux défenseurs de la vie privée, ils verront sans aucun doute d'un mauvais œil cette possible nouvelle façon de cartographier villes, maisons et jardins… Gare à vos piscines !Mise à jour : Google a démenti l'information, indiquant que seul l'un de ses employés avait investi dans un drone vendu par l'entreprise allemande. Google Earth alimenté par des espions volants, ce n'est donc pas pour demain !
Selon une étude réalisée par la Croix-Rouge américaine et intitulée Social Media in Disasters and Emergencies (en PDF ici), 74% des personnes qui appellent à l'aide sur les réseaux sociaux s'attendraient à recevoir de l'aide dans l'heure qui suit.

Le sondage a donné la parole à un échantillon de 1058 américains de plus de 18 ans, pour déterminer leur comportement en cas d'urgence ou dans une situation de crise. Si l'appel au 911 (le numéro d'appel d'urgence aux USA) reste le moyen le plus usité pour appeler à l'aide, les réseaux sociaux apparaissent comme une façon privilégiée de rassurer son entourage sur son état durant une situation de crise : 28% des personnes interrogées indiquent qu'elles se serviraient clairement de Facebook et consorts pour donner des nouvelles à leurs proches, 21% le feraient certainement, 22% hésiteraient et 29% ne s'en serviraient pas. Pour la quasi-moitié du panel qui juge les réseaux sociaux fiables pour informer son entourage, 86% citent Facebook, 28 % Twitter et 11% les blogs en général.

Et si les sites de réseautages semblent fiables pour beaucoup concernant la prise de nouvelles, ils apparaissent également à la population comme un moyen utile de s'informer sur l'état d'alerte de ses utilisateurs. Ainsi, plus des deux tiers des personnes interrogées (69%) considèrent que les services d'urgences devraient réaliser une veille sur les réseaux sociaux pour surveiller les éventuels appels à l'aide lancés par les utilisateurs.

Dans le même ordre d'idée, en postant un appel à l'aide sur un réseau social, 28% des personnes interrogées s'attendent à être secourues dans le quart d'heure qui suit, 27% entre 15 et 30 minutes après, 19% entre 30 minutes et une heure et 26% plus d'une heure après.

En somme, les réseaux sociaux apparaissent comme un lieu privilégié sur la toile pour les appels au secours : « Le premier et le meilleur choix pour n'importe qui dans une situation d'urgence est d'appeler le 911 » commente Gail McGovern, le président de la Croix-Rouge américaine. « Mais lorsque les lignes téléphoniques sont coupées ou que 911 est débordé, nous savons que les gens vont persister pour appeler à l'aide et vont finir par utiliser les réseaux sociaux. »

Si rien n'est dit concernant l'éventuelle veille de proximité effectuée par les secours sur les sites de réseautage, l'organisation reconnaît cependant que ces derniers se sont avérés particulièrement efficaces pour récolter des informations en temps réel au sujet des catastrophes survenues ces dernières années.

L'étude devrait apporter de l'eau au moulin de l'Emergency Social Data Summit qui aura lieu jeudi prochain à La Réunion, et dont l'un des objectifs s'avère justement de déterminer avec précision et d'exploiter « la puissance de communication des nouveaux médias. »
Suite aux révélations relatives à leur projet d'accord autour du concept de neutralité du Net, Google et Verizon ont finalement pris le parti d'expliquer publiquement leurs ambitions. Le projet est présenté comme un support devant servir au législateur américain lorsque celui-ci entreprendra de se pencher sur la question. S'il pose les bases d'un accès neutre et non discriminatoire lorsqu'on parle d'Internet depuis une ligne fixe, il considère que les réseaux mobiles doivent bénéficier d'un traitement différent, et restreint cet accès aux contenus « légaux ».

« Il est impératif que nous trouvions des moyens de protéger l'ouverture d'Internet et d'encourager le déploiement rapide du haut débit », indiquent les deux acteurs, qui se disent ravis d'avoir l'occasion de discuter de ce problème complexe qu'est la neutralité du Net, mais en excluent d'emblée l'Internet mobile, au motif que ce dernier évolue trop vite pour que les opérateurs soient tenus à garantir un traitement « neutre » des données qui y circulent. Dans cet Internet « ouvert » plus que « neutre », il y aurait donc d'un côté le Web mobile et de l'autre un Web fixe.

Un Net « ouvert » plus qu'un Net neutre ?

Articulé autour de sept points principaux, le projet propose en premier lieu que les FAI n'exercent aucune discrimination quant à l'accès aux contenus légaux. Autrement dit, il ne serait pas possible de privilégier un service au détriment d'un autre. Il ne serait pas non plus permis de bloquer l'accès à un contenu ou d'en dégrader volontairement l'accès, du moins tant que le contenu en question est légal. Incidemment apparait donc une entorse au principe de neutralité du Net puisque le filtrage des contenus illégaux n'est pas exclu.

Ceci étant dit, Google et Verizon s'entendent tout de même sur l'intérêt de laisser la possibilité à un FAI de nouer des accords avec tel ou tel distributeur de contenus. Les services qui émaneraient de tels partenariats (vidéo à la demande par exemple) pourraient être facturés en sus et, surtout, profiter d'un traitement « différencié », à savoir une gestion de la priorité du trafic. Nouvelle entorse, justifiée selon les deux cosignataires par la nécessité de favoriser l'émergence de services innovants.

Pour maintenir une certaine qualité de service, les FAI doivent en outre pouvoir procéder à une « gestion raisonnable » du réseau, afin d'éviter les congestions et de garantir l'intégrité de leurs infrastructures. Dans l'esprit des deux partenaires, c'est à la FCC (équivalent américain de l'Arcep) qu'incomberait la mission de veiller au respect de ces principes.
LoadingChargement en cours