Regard sur l’actualité

La nouvelle à de quoi surprendre. Bien qu’ancienne (la dépêche est tombée en juin dernier), elle continue a faire débat car si les entreprises on vu un temps le télétravail comme un source d’économie non négligeable et un arrangement pour les salariés, au final une solution gagnante-gagnante, en réalité les choses ne sont pas si simples et beaucoup de grandes entreprises en particulier font maintenant marche arrière.

Pourquoi ?

Lorsque Marissa Mayer, le nouveau PDG de Yahoo, a envoyé une lettre à tous les employés annulant leur droit de travailler à domicile, l’onde de choc a été ressentie à travers le monde, du Bureau de Washington des statistiques du travail à Necker Island au domicile des Caraïbes du CEO de Virgin, Richard Branson. La décision de Yahoo concernant le télétravail est revenue sous les projecteurs pour les organisations et leur personnel . Dans ce contexte ressurgit le débat du « Pourquoi pas? »

Pourquoi ne travaillons tous pas à la maison? Après tout, c’est l’ère de l’hyperconnectivité, des périphériques connectés en haut débit: Le Bureau of Labor Statistics rapporte qu’un sur quatre des travailleurs américains sont en télétravail au moins une partie du temps.

Dans la période 2005-2011, le télétravail américain a progressé de 73%, rapporte le Réseau de recherche sur le télétravail, et que les programmes de télétravail accroissent la productivité et la satisfaction des employés. Pourtant, les chefs d’entreprise continuent à se préoccuper de louer de l’espace de bureau. Pourquoi ?

– Contrôle: La réponse intuitive serait que de nombreuses entreprises craignent de perdre le contrôle de leurs employés. Les télétravailleurs eux-même appuient souvent cette perception en invoquant des difficultés dans les évaluations de rendement, par rapport à leurs pairs au bureau.

Oui, les travailleurs distants peuvent en effet sembler plus décontractés, plus heureux et plus productifs, mais cela ne signifie pas qu’ils sont bons pour leurs entreprise.

Une entreprise est plus que la somme du travail qui doit être fait, et les salariés qui sont là pour le faire. Une organisation saine avec une culture qui permet le partage des valeurs et des idées, la formation d’ une identité d’entreprise, et le sentiment d’urgence concurrentielle, peut être agile et innovante. Cependant, le travail à domicile ne peut manquer de motiver les salariés de la même manière qu’un environnement de travail en commun. En conséquence, les entreprises souffrent, malgré les augmentations de la productivité et le moral du personnel qui passent par le télétravail.

Le procès fait au télétravail:

La décision de Yahoo a créé l’incrédulité, car la résistance au télétravail vient justement des entreprises que l’on imagine justement être les plus ouvertes sur la question. Les employés de Google, par exemple, se rendent à Mountain View sur un bus gratuit doté du wi-fi, et ils sont encouragés à consacrer jusqu’à 20% de leur temps à des projets autres que leur propre travail. Pourtant, quand il s’agit de travailler à la maison, la ligne de l’entreprise est de maintenir le télétravail au strict minimum, sauf lorsqu’il s’il s’agit de donner exceptionnellement quelques heures supplémentaires après avoir quitté le bureau. Quand même les entreprises de haute technologie hyperconnectées souhaitent restreindre le travail à distance, l’idée que tout est basé sur ??le contrôle des employés se retrouve du coup sur une pente glissante.

Créativité et mémoire institutionnelle:

Au final, une entreprise n’est jamais aussi bonne que si ses salariés le sont. La valeur de chacun(e) est centrée sur la connaissance qu’il(elle) possède et les connaissances qu’il(elle) peut engranger. Dans les environnements de travail qui voient leurs collègues papoter autour de la fontaine d’eau, un apprentissage réel se fait. Beaucoup d’échanges d’informations ont lieu, ce qui permet les mêmes salariés d’augmenter leur potentiel de valeur pour l’organisation. Ils sont capables de puiser sans limites dans ce flux dématérialisé d’information et de connaissance partagées.

La lettre souvent citée de Marissa Mayer délivrée aux employés de Yahoo en effet stipule :

« Nous devons être Yahoo!, et cela commence par être physiquement ensemble. Rapidité et qualité sont souvent sacrifiées lorsque nous travaillons à la maison ». Elle ne parlait pas tant de la qualité du travail effectué, que des qualités que les employés apportent à une société quand ils se réunissent autour de la fontaine d’eau causant de shopping. Elle a probablement entièrement appris cela à Google. C’est un sentiment partagé par le directeur financier de Google, Patrick Pichette. Dans une interview avec le journaliste australien Ben Grubb, il a expliqué la position anti – télétravail, contre-intuitive de Google : « Il y a quelque chose de magique dans le partage des repas. Il y a quelque chose de magique dans le fait de passer du temps ensemble, de brasser librement des idées, de demander, ‘Que pensez-vous de cela?’ « .

Magique ou non, le fait est que le télétravail ne fonctionne généralement pas bien, parce que les entreprise n’ont pas encore résolu le problème du knowledge management à distance, ou la gestation collaborative de nouvelles idées. Si cette « magie » se produit, vous avez encore de beaux jours devant vous. Au final l’évolution technologique s’accélère et les pressions du marché intensifient, les entreprises ont besoin pour devenir de plus en plus agiles et innovantes, de coller à leur environnement par un jeu de communication des connaissances externe/interne passant par le travail physiquement et en commun. Paradoxalement, la technologie qui a rendu le télétravail possible conspire maintenant a garder les salariés au bureau…

Traduit et adapté, d’après un article de Forbes

Le R.I.P. social

23 Oct 2013, Posté par D. Bocquelet dans Regard sur l'actualité

RIP rubrique nécrologique des réseaux sociaux

En cette fin d’octobre, avec Halloween qui approche, nous abordons un sujet de circonstance: La rubrique nécrologique des réseaux sociaux…

Le phénomène des réseaux a maintenant atteint une certaine maturité, et force est de constater que la loi darwinienne s’y applique aussi. Certains réseaux sociaux vous seront peut-être inconnus, mais  à une certaine époque, ils sont étés au sommet de la vague et avaient des millions d’utilisateurs et de followers.

Sont-ils tous enterrés ou une résurrection est à souhaiter (ou à craindre ) ?

– L’avenir nous dira si certaines de ces solutions seront capable de se réinventer et de fidéliser de nouveaux utilisateurs…

1-Friendster (2002-2009). Pionnier après facebook, ce média à su fidéliser 3 millions utilisateurs avides de nouveautés peu après son lancement, mais d’après PCMag.com, une fois son profil renseigné il n’y avait pas grand chose à faire en comparaison de facebook ou myspace. Les premiers clous au cercueil ont été plantés lorsque la base technique n’a pas suivi son extension. Problèmes de serveur à répétition, bugs de cache, puis un temps de chargement qui culminait à 40 secondes au pic de sa croissance. Enfin le choix hasardeux (à posteriori) de passer d’un base java en php, mal gérée. Aux USA il avait été déserté vers 2006-2008. Encore au top en Asie (Philippines, Malaisie, et Singapour selon alexa), il avait été racheté par MOL (poinds lourd des médias en Asie). Sa « résurrection » est encore discutée tant ses utilisateurs asiatiques lui sont restés  fidèles jusqu’en 2009. Le nom a été réactivé (pas le concept, bien mort)  pour un site de jeux en 2011 et actuellement « cartonne » aux Philippines et en Corée.

2-MySpace (2003-2011). Certainement mieux connu, il a pu trouver son public très vite après son lancement en 2003. Il avait été racheté à hauteur de 580 millions de dollars par une major des actualités. En 2009, il culminait à 75 millions d’utilisateurs, encore loin encore derrière facebook. Toutefois les critiques s’accumulaient : En 2006 MySpace signait un partenariat avec Google, et s’est vu littéralement inondé de publicités provoquant des ralentissements, tandis que les utilisateurs se plaignaient aussi d’un spamming intensif. Enfin, peu de nouvelles innovations ou applications et au final une perte constante de trafic au profit de Facebook. En 2011, le réseau est moribond, et l’artiste Justin Timberlake le rachète pour 35 millions avec l’idée de le transformer en réseau social pour les musiciens amateurs. Nouveau problème en 2012, le FTC, équivalent américain de la CNIL, attaque Myspace pour violation répétée à l’accès aux données personnelles. En 2013, Myspace est rebadgé, propose une appli iphone radio et de création de .gifs, mais son avenir est plus que jamais incertain face à des majors bien installées dans ce domaine, comme Spotify, Rdio, et lastFM, sans parler de Rolling Stones et Pitchfork…

3-ORKUT (2004-?). Lancé discrètement par Google et créé par une petite main de Google, Orkut Buyukkotnen, le réseau n’a jamais rencontré le succès attendu, et surtout a été suspendu aux USA, pour cause de non-filtrage des publicités (envahi par le porno). Il est resté par la suite lent et perclus de spams. Toutefois contre toute attente le succès s’est maintenu au Brésil qui l’a préféré à Facebook. A tel point que techniquement mort aux USA, il se porte bien au Brésil (près de 57% de Brésiliens, ainsi que 22,4% d’indiens) où le QG  et les serveurs ont été déménagés en 2011.

4-DIGG (2004-2010). Sans doute le « décès » le plus choquant de tous (combien de fois avez-vous entendu « digg-like » ?), le pionnier du partage d’articles atteignait les 236 millions d’utilisateurs en 2008, l’année de son sommet. Google envisagea puis repoussa finalement  son acquisition pour 200 millions de dollars.  A la suite ce cet événement, la direction ambitionnait de concurrencer Facebook et twitter en mettant en place des fonctionnalités similaires puis en refondant entièrement sa charte graphique et son interface. Les fidèles avaient entre-temps perdu nombre de fonctionnalités populaires, se voyaient envahis de publicités tandis que lenteurs et bugs s’accumulaient. Il fallait près de 7 étapes pour partager une article… En 2011, son CEO admettait lui-même des choix discutables. En 2012, Digg était finalement revendu en trois parts, à Betaworks (base technique), au Washington post Social Code (salariés), et enfin une série de brevets à Linkedin. En 2013, ses fondateurs se sont recentrés sur un concept nouveau et modernisé, incluant un lecteur RSS, une appli iphone et une API, ainsi qu’une nouvelle interface entièrement repensée. Résurrection en vue ?

5-Xanga (1999-2013). Commencé comme un réseau social, puis migrant vers un moteur de blog à succès, Xanga a connu son année phare en 2006 aux USA comme troisième réseau social le plus utilisé, très prisé des teenagers Américains. Il est même devenu une référence pour de nouveaux challengers comme Tumblr, Blogger, et WordPress. Mais ces derniers ont su sortir très vite des innovations qui ont lentement mais surement rendues moins attrayante la formule de Xanga. Dans le même temps, le réseau accusait un grave coup porté par le COPPA, organisme Américain de défense de la vie privé des enfants/ados, avec une amende de quelques 1 millions de dollars et l’exigence de modifications. De plus, Xanga n’est jamais parvenu à l’équilibre financier. En 2013, il était en quasi-faillite, devant trouver 60 000 dollars de financement. Une bonne partie fut payée par son CEO, John Hiler. Finalement, c’est sous la forme d’un hébergement de blogs en utilisant WordPress comme base, sans publicités, que la formule tente d’être réactivée par ses concepteurs.

6-SixDegrees (1997-2001). Sans doute le plus ancien (« le grand-père des réseaux sociaux »), il avait été pionnier en combinant les profils personnels, la messagerie instantanée entre membres, la liste d’amis et la possibilité de rechercher parmi les amis de ses amis. En 1999, il culminait 2.5 millions de membres. Le concept de « six degrés » renvoyait à l’idée imagée de pouvoir être connecté au reste du monde avec six degrés de connexion étagée. La même année, il nouait un partenariat avec un major des newsmedias aux USA, et en 2000, il était racheté par YouthStream Media Networks pour 125 millions de dollars. La raison de sa disparition est sans doute lié à un concept d’avant-garde qui n’avait pas su trouver l’équilibre financier avec un modèle de recette publicitaire encore très balbutiant à l’époque, et des problèmes récurrents de spam. Une tentative de le réactiver par des nostalgiques en 2010 a tourné court.

L’infographie (ouvrir dans un nouvel onglet)

Source originale :http://technorati.com/social-media/article/will-social-media-relics-rise-again/

Top 10 des moteurs de recherche gratuits

23 Oct 2013, Posté par D. Bocquelet dans Regard sur l'actualité

La recherche « no noise » en gratuit, ce n’est pas pour tout de suite !

En veille, on peut utiliser une surveillance de sites internet choisis par flux RSS, mais beaucoup n’en ont pas.

Ce sont particulièrement les sites corporate de petites sociétés, et fournisseurs qui n’ont pas par nature une grosse actualité.

Le complément c’est donc un moteur de recherche pour pouvoir parser ces informations du « web profond », invisibles mais pourtant vitales dans certaines secteurs d’activité.

Nous avons testé plusieurs moteurs et comparé leurs avantages et inconvénients. Nous avons éliminé les moteurs fanco-français (comme voilà) et les moteurs thématiques de ce test. Les moteurs abandonnées ou en cours de déménagement sont également hors-course tout comme les moteurs professionnels non-publics comme Sinequa ou Polyspot.
Ce test s’est basé sur une requête type susceptible d’être tapée par un veilleur professionnel sur un sujet donné, technique, précis. Ici c’est « scrubber » (un système de recyclage du CO2, permettant de réduire l’impact environnemental des rejets de carbone), et comme nous cherchons ce système uniquement pour des navires, cela donne scrubbers+ships.

Moteur de recherche Avantages Inconvénients
Nombreux résultats (855 ko) 

Pagination pratique

booléens acceptés

Résultats orientés en fonction profil 

Trop de résultats commerciaux

Possibilité d’afficher plus de 100 résultats/page 

Paramétrage possible langue

Résultats trop limités (30) 

Déconnexion préalable de son compte microsoft

Trop de résultats commerciaux

Nombreux résultats (404 ko) Déconnexion préalable 

Basculer sur sur yahoo.com

Résultats commerciaux trop présents

Couplage avec google


Affiche les favicones des sources Résultats limités et non pertinents 

N’accepte pas les booléens

trop de résultats commerciaux (+70%)


Vignettes 

Rapide

Pas trop de résultats commerciaux

Trop peu de résultats (30) immédiatement visibles. 

Pagination peu ergonomique.

Bonne pagination 

Peu de résultats commerciaux

Relativement lent 

Pertinence courte (deux pages)

Rapide Pertinence vite perdue (sémantique approchante) 

Trop peu de résultats par page

Rapide 

Bonne pertinence

Bonne pagination

Statistiques & filtrage

Pertinence courte (-30 résultats sur la requête)
Epuré Trop peu de pertinence sur la requête 

Trop de résultats commerciaux

Partenariat avec Yandex

Bonne pagination 

Bonne pertinence

Pas de surlignage sémantique 

Ads trop présents sur les pages de recherche

Pertinence courte (env. 20 résultats)

Au final : Exalead (Dassault systemes) est le moteur qui s’en sort le mieux et a les options les plus intéressantes en accès public. Toutefois l’absence ou presque de résultats commerciaux masque une pertinence vite perdue dans les SERPs sur la requête, et le volume reste modeste.

Nos observations :

  1. Les technologies sont matures et la recherche est rapide.
  2. Dans certains cas, il est nécessaire de se déconnecter avant toute recherche
  3. La pagination sur 10 pages de 10 résultats est standard, mais les ads (publicités) parasitent parfois la consultation
  4. L’acceptation des booléens (ici « + ») est également standard
  5. La pertinence des résultats initiaux (3 premières pages) dépend du volume initial et du traitement ou non des liens commerciaux
  6. Les options de personnalisation de la recherche sont rares
  7. Problème de redirection pour Google, il faut se connecter en mode anglophone.

Le moteur de recherche parfait serait celui qui peut tirer profit de la base de google, après avoir filtré un grand nombre de paramètres, sans parasitage commercial ou personnel.

Exemple : Préciser le champ sémantique pour un terme polysémique. Ex. « Tank » veut aussi bien dire « char d’assaut » que « réservoir ». Préciser une catégorie comme « défense » permettrait déjà de passer outre les ambiguïtés.

Problème : Ce genre d’indexation est impossible sur une grosse masse de données. La plupart de sites internet ne précisent pas de balise meta « category » tout simplement par méconnaissance des webmasters et SEO sur son avantage possible.

Solution : Une indexation sémantique des contenus pour en déduire une ou plusieurs catégories, ainsi que le champ sémantique élargi du site qui fournit des indices supplémentaires. C’est un système déjà en place sur Google, mais beaucoup de moteurs n’ont pas la capacité de suivre.

La possibilité de filtrer les résultats avant ou après la requête avec plusieurs critères, est rarement une possibilité donnée par des moteurs de recherche gratuits. De même l’analyse graphique des résultats est quasi-absente du paysage. En revanche il s’agit de fonctionnalités attendues sur des outils payants.

Autre problème : La base de recherche est sur le gratuit en « tout-venant ». On mélange les informations issues de blogs personnels, forums, documents pdf, sites d’actualités spécialisés et presse généraliste, et liens et sites commerciaux.

Deux solutions sont possibles :

  • Soit le WWW est scanné sur le plan technique en amont (lorsque le filtrage par type de site existe -et est possible)
  • Soit on effectue une recherche sur une base de données qualifiée et contrôlée, c’est le cas de RSS Sourcing.

Enfin, la vérification de pertinence, qui s’effectue en lisant les descriptifs des résultats affichés. Un surlignage ou passage en gras des termes de la requête au niveau de l’URL, du descriptif (balises meta) et contenu, sont une aide précieuse, malheureusement pas encore généralisée.

La consultation des pages de résultats est sans doute l’étape la plus chronophage. Là encore les algorithmes du moteur décident quels sites sont les plus « pertinents » sur la requête, et le travail des SEO vient parasiter encore ces SERPs par des résultats commerciaux. La consultation donc du « web profond » reste donc un challenge, qu’un système permettrait de contourner : Celui des alertes, avec le bémol du sourcing qui est derrière. S’il ne se base que sur des fils d’actualité, cela est perdu d’avance.  Il peut y avoir en effet une information très valable bien enterrée dans un pdf de présentation technique, lui même difficilement accessible sur un site internet n’ayant pas d’actualité. Il faut donc un « bot » agressif et passe-partout à la google, mais qui puisse en même temps forwarder les informations de ce « web profond » en temps réel, en parfait « pull ».

Pour l’anecdote, Yahoo et Bing ont tous deux décidé de changer de logo dernièrement. Voici les différentes options testées par Marissa Mayer, ex porte-parole de Google maintenant à la tête de Yahoo.

Colibri, le nouvel algo Google

30 Sep 2013, Posté par D. Bocquelet dans Digital, Regard sur l'actualité

La nouvelle est tombée vendredi. Google vient de lancer (et de souffler ses 15 bougies) son dernier algo, Colibri (« Hummingbird »). L’annonce a été faite par Amit Singhal (prte-parle senior de la recherche) en comité restreinte, dans le garage de Menlo Park, loué il y à 15 ans par Brin et Page, maintenant la maison de Susan Wokcinki.

Contrairement à Panda et Pinguin qui s’attaquaient au spammeurs sortaient le gourdin contre les abus de SEO, le dernier-né des algorythme concocté par Mountain view en revient à l’essentiel : La Recherche. Ou plutôt, la longueur et la spécificité sémantique des requêtes tapées par les internautes. Et il touche déjà 90% des requêtes mondiales.

Avant de rentrer dans le vif du sujet, une remarque esthétique. Contrairement aux précédent bestiaire noir et blanc, le colibri est multicolore, sans doute une référence au logo google lui-même, et le symbole d’une retour aux sources, peut-être pour contrer la critique grandissante de « Google, flic du web », pour lequel le noir et blanc est en effet de rigueur (référence aux white hat/black hat, le bien/le mal.. etc.). Rappelons quand même la devise de la firme « don’t be evil ». Mais bon, on s’égare peut-être.

Le concept sous-tendu est la « recherche conversationelle »:

Our algorithm had to go through some fundamental rethinking of how we are going to keep our results relevant

Colibri en effet est annoncé comme une suite de modifications visant les requêtes et recherches longues tapées par les internautes. On sait que les SEO ont longtemps profité de ces requêtes pour mettre en place une politique d’URL « long tail », en utilisant au mieux leurs outils SEO, des balises ajustées,  et une URL réécrite via htaccess ou autre. C’était notamment très utilisé au niveau des E-commerces. Prestashop et Magento permettaient notamment lors de la rédaction d’une fiche produit de créér des URL incluant tous les mots-clés et caractéristiques produit ce qui les rendaient plus proches d’un « exact match » par rapport à une requête (pas une URL dynamique liée à une recherche sur le site, mais bien une URL « en dur »). D’autres ont abusé (et abusent toujours) de la « long tail », les pseudo-dictionnaires chargés de pubs google et autres fermes de liens. Certes, Google et Panda se sont chargé d’abattre quelque uns de ses sites dont le contenu (pauvre) était grossièrement et automatiquement traduit. Le but de ces usines a contenu était de faire de « l’exact match » en version industrielle pour récolter du trafic payant.

C’est là que le changement va être important, car plutôt que de se focaliser sur une « exact match », Google va chercher à affiner la sémantique de cette requête, (chaque mot est en effet traité comme un indice) avec pour objectif de savoir  « qu’est ce que l’internaute avait en tête ». L’effort est louable, mais bien sûr cela n’est pas anodin sur le plan financier. Il vise a diminuer le taux de rebond sur les liens commerciaux des pubs adwords en relation avec cette requête, donc les taux de transformations. Google tenterait-il je justifier ce progrès par une future augmentation de marge ?

Seul l’avenir nous le dira.

En attendant sur un registre plus « léger », Google en à profité pour annoncer un petit « plus » dans les requêtes, un comparateur, Knowledge Graph. Ce dernier se lance à partir d’une requête intégrant « vs » (versus) entre les deux mot-clés ou mots-clés composé. Pour ceux qui ne le savaient pas encore, Google avait déjà créé des utilitaires bien pratique à partir de la requête « to » faisant de la conversion par exemple d’inches  en centimètres, ibs en kilos, etc, ou encore « define » pour obtenir une définition d’un terme.

Google se lance dans l’immortalité

19 Sep 2013, Posté par D. Bocquelet dans Regard sur l'actualité
Oui, Google se lance dans la médecine, ou plutôt les technologies biogénétiques censées prolonger la vie.
On savait Google proche des cercles du transhumanisme (voir clairement dedans), mais la dernière annonce de la firme à fait la une du Times et surprend par sa franchise…
Mountain view annonce la couleur et prépare l’eugénisme « branché » de la fin du XXIe siècle.
Dixit Larry Page sur sa page Google+ :
« Je suis très heureux d’annoncer Calico, une nouvelle société qui mettra l’accent sur ??la santé et le bien-être, en particulier le défi du vieillissement et des maladies associées. Art Levinson, président du conseil et ancien PDG de Genentech et président d’Apple, sera chef de la direction.
OK … alors vous pensez probablement wow! C’est très différent de ce que Google fait aujourd’hui. Et vous avez raison. Mais comme nous l’avons expliqué dans notre première lettre aux actionnaires, il ya un énorme potentiel pour la technologie plus généralement, à améliorer la vie des gens. Donc, ne soyez pas surpris si nous investissons dans des projets qui semblent étranges ou spéculatives contre nos entreprises Internet existants. Et n’oubliez pas que les nouveaux investissements comme celui-ci sont très petites par rapport à notre cœur de métier.
Art et moi sommes excités au sujet de la lutte contre le vieillissement et la maladie. Ces questions nous concernent tous, à partir de la diminution de la mobilité et l’agilité mentale qui vient avec l’âge, à des maladies mortelles que payer un lourd tribut physique et émotionnel terrible sur les individus et les familles. Et tout cela est clairement un pari à long terme, nous croyons que nous pouvons faire des progrès dans des délais raisonnables avec les bons objectifs et les bonnes personnes.
Notre communiqué de presse a un peu plus de détails mais il est encore très tôt jours donc il n’y a pas beaucoup plus à partager encore. Bien sûr, lorsque l’art a quelque chose de plus substantiel à communiquer (et qui va probablement prendre du temps), il va fournir une mise à jour. Enfin, grâce à Bill Maris pour aider à mettre cette idée à la vie et l’obtention d’art impliqué, et Sergey Brin pour soutenir systématiquement la pensée 10X comme ça. Il est difficile pour de nombreuses entreprises à faire des investissements à long terme. Donc, je suis extrêmement excité au sujet de la nouvelle façon innovante nous finançons ce projet.
Maintenant, pour le travail acharné! »
http://googlepress.blogspot.com/2013/09/calico-announcement.html

Extensions gratuites : Danger…

22 Août 2013, Posté par D. Bocquelet dans Digital, Regard sur l'actualité

Définition : Une extension dans le langage courant du web, est le suffixe rapporté au nom de domaine, ex: monsite.com (ici « .com »).

Les extensions peuvent être aussi bien liée à un domaine ou objet (.doc; .biz, .net, .org…), mais aussi un pays (.fr, .us. uk, etc…). Elles ont toutes en commun d’êtres payantes. Le service « administratif » derrière est représenté par l’ICANN, et les frais de gestion afférents aux états se retrouvent aussi grossies des marges des revendeurs (frais de renouvellement des noms de domaine exigés des hébergeurs/prestataires et registres). Or, depuis quelques temps, des registres proposent leurs noms de domaine gratuitement. Certains avaient tenté l’expérience à leurs débuts comme la Belgique (.be) ou le .info, et actuellement le petit archipel des Tokelau (1500 habitants), a défrayé la chronique en proposant son extension nationale gratuite. Le succès a été considérable, et le petit .tk est actuellement la seconde extension mondiale enregistrée après le .com… Belle opération de publicité pour les Tokelans, dont l’extension seule rapporte 10% du PIB national.

Mais cette extension « gratuite » n’est pas la seule aubaine pour les Tokelans. En effet cette gratuité est contre-balancée par des avantages concrets bien compris, car l’adoption du .tk ne confère qu’un droit d’usage, que le gestionnaire et registre entendent bien faire fructifier comme ils le souhaitent. Premier constat, les webmasters de sites en .tk découvrent des publicités sur leur site, et apprennent plus tard qu’il leur faut débourser 1$80 ou bien obtenir un trafic de 1000 visites en trois mois pour les faire disparaître. De plus, le réservataire de cette extension n’en est pas le propriétaire, ce que confirment la localisation des DNS, comme le WHOIS, le réel propriétaire étant en réalité BV Dot TK ou Freedom Registry, Inc. Ces derniers, s’il on s’en tient aux conditions générales de vente, peuvent à tout moment suspendre l’activation du site internet à n’importe quel moment, et ce même si le webmaster maîtrise son hébergement.

La période d’enregistrement en outre est limitée à 12 mois (contre parfois 3-4 ans pour d’autres extensions), et n’envoie d’alerte de renouvellement que 15 jours avant, et sans tolérance après. Les noms de domaines qui en outre (montré par la pratique) n’apporteraient pas le trafic espéré (minimum de 25 visites en 90 jours) dès le départ, sont purement et simplement supprimés et libres à réservation… Les offres payantes sont donc le seul remède à ces contraintes.

De plus des études récentes ont montré que le .tk était l’une des extensions préférées des hackeurs, cybersquatteurs, spammeurs, et près de 20% des attaques de phishing provenaient de sites dotés d’une telle extension… Google comme la plupart des FAI d’ailleurs ont ce .tk dans leur collimateur et les mails provenant d’alias de ce domaine risque d’être spammés systématiquement. Malgrès cela, le .tk a fait des émules, puisque le Mali et la république Centrafricaine ont décidé de mettre à leur tour ce système en application (.ml et .cf), aujourd’hui chapeauté également par le Freedom Registry.

En bref, une petite économie de départ (un nom de domaine « normal » coûte environ 5 euros par an), pour de gros tracas à prévoir par la suite.

L’inde entre dans le « big five »

13 Août 2013, Posté par D. Bocquelet dans Regard sur l'actualité

Depuis une dizaine d’année, l’essor économique de l’Asie se double de démonstrations de puissance, qui passent par l’accroissement des forces armées. L’un des symboles les plus forts dans ce domaine est la construction d’un porte-avions. Summum de la concrétisation de ce que les militaires et politiques appellent une « projection de puissance », le porte-avions est une base aérienne, un morceau du territoire national, que l’on peut exhiber à portée des frontières de tout pays bordé par un océan. C’est une proclamation aussi imposante que le fait de posséder un arsenal nucléaire. Le paradoxe est que la Chine, l’Inde et maintenant probablement aussi le Pakistan, avaient tous l’arme nucléaire et la technologie afférente bien avant de posséder un porte-avions. Cela donne une idée de la complexité et du coût d’un tel projet.

Contrairement à la Chine, l’inde n’était pas étrangère aux porte-avions. C’était même le premier pays d’Asie continentale à en posséder un: Le Viraat, un ex-bâtiment de la classe Centaur (mis sur cale en 1944) et achevé après-guerre. Lorsque la grande-Bretagne s’en sépara pour des raisons budgétaires, l’Inde en fit l’acquisition et il permit de former plusieurs génération d’officiers et de pilotes rompus aux tactiques et techniques propres à l’aéronavale. Toutefois, sa coque approchant les soixante-dix ans, le vénérable bâtiment, quoique modernisé, arrivait au bout de ses possibilités. Il faut épaulé plus récemment par le Vikramaditya, un ex-bâtiment russe de la classe Kiev (conçu dans les années 70). L’inde commença donc dès 1995 à rechercher des possibilités de remplacement. Parmi ces dernières figuraient l’acquisition d’un bâtiment Britannique, Russe, Français, avec transferts de technologies et/ou construction partielle mais au final il fut décider de procéder à la conception d’un bâtiment purement national, notamment pour ne dépendre d’aucune technologie étrangère et de répondre parfaitement aux matériels et spécifications locales. Baptisé INS Vikrant, le nouveau bâtiment vient d’être lancé à Cochin Shipyard ce lundi 12 août, en grande pompe.

C’est un bâtiment de 40 000 tonnes, 260 mètres de long par 60 m au pont d’envol, qui sera capable d’opérer une trentaine d’appareil, dont des Mig 29K (version navalisée) et Hal Tejas, chasseur national dérivé du Mirage 2000 Français. Son pont d’envol avec rampe témoigne de la double influence, Russe et Britannique, et permet de lancer des appareils (par catapulte – STOBAR) lourdement chargés. Le Vikrant est le premier d’une classe de deux bâtiments à propulsion  classique (Une paire de turbines à gaz LM2500), dont la construction, très largement modulaire, permettra facilement de futures modernisations. Il fait largement appel à des systèmes assistés et automatisée, mais pour autant son équipage (y compris le personnel naviguant) sera de 1600 personnes. Son entrée en service est prévue en 2017, tandis que son sister-ship, l’INS Vishal, qui fera appel au système CATOBAR et à des catapultes magnétiques. Son entrée en service est prévue pour 2020… L’inde, en concevant un bâtiment strictement national, sur ses rssources propres, entre dans le très sélect club des « big six » comprenant les USA, la Russie, la Grande Bretagne, la France, l’Espagne et l’Italie. Il faudra donc maintenant parler de « big 7 » et même « big 8 » en incluant les Japonais…

Ce bâtiment est une réponse à la mise en service l’année dernière du Liaoning, premier porte-avions Chinois, entamé en union soviétique (Varyag) et resté inachevé, acheté à l’Ukraine pour un projet de « casino flottant », puis modernisé et partiellement reconstruit à Dalian, en Chine. Le Liaoning est à propulsion nucléaire. La Thaïlande de son côté avait lancé le Chakri Naruebet, sous assistance Espagnole, et le Japon très récemment à mis en service le Hyuga et l’Ise en 2009-2011 et récemment lancé le Izumo, bien plus grand. Officiellement, ces trois bâtiment sont d’ailleurs classés comme « destroyers porte-hélicoptères » d’une marine normalement strictement défensive. La Corée projette également son premier porte-avions pour les années à venir, plusieurs projets circulent et des négociations pour des partenariats technologiques sont en cours.

Arte a diffusé récemment un documentaire retraçant les débuts tumultueux et l’histoire de web depuis son origine.

Entre nostalgie et surprises, un documentaire d’une heure vingt diffusé à des heures indues, mais heureusement disponible ici :


Source : Zdnet : http://www.zdnet.fr/actualites/une-contre-histoire-des-internets-documentaire-a-ne-pas-manquer-39790935.htm

Sous le doux nom d' »entomophagie », se profile une révolution dans l’agroalimentaire… Et non, c’est n’est pas encore le 1er avril.

Présente depuis des millénaires dans des sociétés traditionnelles et en Afrique, Océanie, Asie du sud-est, et Amérique du sud, les insectes ont toujours été une part importante de l’alimentation quotidienne, abondantes et garantes notamment d’un enrichissement aisé en protéines. La FAO (Organisation des Nations-Unies pour l’alimentation et l’agriculture) estime en effet que près de 5000 espèces font couramment partie des menus, pour près de 2.5 milliards de personnes dans la plupart des pays émergents. Et loin d’être liés à une quelconque phénomène de disette chronique, s’il on en croit leur succès sur les marchés locaux, ce sont des mets toujours très appréciés.

Refoulée pour des raisons culturelles en occident, la consommation d’insectes à pourtant le vent en poupe, notamment pour une industrie agroalimentaire en proie au doute face à ses dérives et aux problématiques du développement durable. On sait en effet que l’industrie du boeuf, malgré des progrès récents, reste vorace en ressources (surtout indirectes) et garde une empreinte environnementale nettement défavorable. L’industrie halieutique de son côté peine à maintenir une aquaculture efficace et diversifiée et se voit pointée du doigt dans l’apauvrissement des fonds marins et le bouleversement de la chaîne alimentaire. Les industries ovines et porcines sont également loin d’avoir un impact éco-compatibles, qu’il s’agisse de consommation indirecte (agriculture spécialisée), de transport associé à une filière mondiale complexe (bilan carbone), ou de leurs rejets organiques…

Donc la FAO, et des chercheurs bien avant, soulignent depuis les années 60 la possibilité d’introduire des insectes sur les marchés de l’hémisphère Nord, à l’impact environnemental très faible tout en étant riches en protéines, matières grasses et micronutriments. Le ratio est d’ailleurs si favorable, y compris en terme de sécurité nutritionnelle, qu’on se demande pourquoi l’IAA ne s’est pas penchée sur la question auparavant. La consommation directe, d’ailleurs bridée par l’Europe (règlement (CE) n°258/97) restant encore quasi-impensable directement tout au moins en grande surface, elle fait en revanche à présent partie des perspectives stratégiques dans l’alimentation animale, favorisée face aux sources végétales -soja et graines- grosses consommatrices d’eau. Une société Américaine, AgriProtein se propose par exemple de lancer la production d’insectes pour l’alimentation dans l’aquaculture. Un concept que l’on pourrait très bien porter dans le domaine avicole, avant de voir d’autres débouchés sous la forme de pâtes et de poudres protéiques alimentaires…

Pour en savoir plus : http://www.fao.org/forestry/edibleinsects/fr/

Un sujet RSSAgro, outil de veille de l’industrie agroalimentaire.