A whisky bien né la qualité n'attend plus le nombre des années-Tout

Mardi 20 oct 2015

WebRadar

Français

Français

English

20000 articles everyday from thousands of sources

Navigation

Politique

Economie

Technologie

Sports

Art & Culture

Top videos

A whisky bien né, la qualité n’attend plus le nombre des années | WebRadar

Slate

 Ruby, France, Signature, Ambassadeur, Pêche, Bye, Question, Argent, Evolution, Heure, Prix, Emploi, Respect, Problème, Qualité, Blessé, Avant, Produit, Oeil, Ancien, Valeur, Aveugle, Marché, Créativité, Mieux, Bon, Vivacité, Mauvais, Problème, Arriéré, Peur, Limité

Cela ne vous aura pas échappé: dans les chais écossais comme dans les studios d’Hollywood, l’âge est devenu une notion TRÈS relative, qui tend à disparaître des étiquettes aussi sûrement que des biographies officielles.Face à la demande mondiale explosive, et confrontés à une rapide fonte des stocks de vieux whiskies, les single malts doivent affronter une cruelle équation:…

Voir l’article depuis la source »

Tweet

Articles en relation

HTC One M9 : prise en main

Zdnet

Beau, puissant, élégant… ce sont quelques un des qualificatifs que l’on donnait l’année dernière au HTC One M8lors de sa sortie. Avec ça pas évident de trouver une suite à la hauteur des attentes, c’est ce qu’a tenté de faire HTC en présentant son nouveau smartphone M9.Pour le M9 HTC a conservé un design tout métal et fait quelques ajustements. Ceux qui attendaient plutôt un bouleversement pourraient être déçus, le M9 est une évolution du M8. Sans prendre de risque HTC mise sur la réputation de son prédécesseur pour venir défier la concurrence et notamment le Galaxy S6.Le smartphone conserve son écran 5 pouces et un affichage de 1920×1080 pixels entrainé par le processeur quadruple coeur Snapdragon 810 de Qualcomm. L’appareil photo « Ultrapixel » à l’arrière du M8 passe sur la face avant et est remplacé par un nouveau capteur de 20 millions de pixels pour les prises de vues. Les prix n’ont pas encore été annoncés mais l’appareil devrait arriver sur le marché à partir de la fin du mois de mars.DesignHTC ne s’est pas trop éloigné du design qu’il avait utilisé pour son M8 un an auparavant. Le corps de l’appareil est tout en métal et les hauts parleurs imposants sont placés en haut et en bas. L’arrière du téléphone est légèrement bombé et deux filets de plastiques incrustés traversent l’appareil dans le sens de la largeur en haut et en bas.On conserve aussi la même taille d’écran, 5 pouces, ce qui donne une apparence générale très proche des modèles précédents, y compris au niveau du poids lorsque les deux appareils sont en mains. On note toutefois une légère différence au dos de l’appareil puisqu’un seul objectof est présent sur le M9 au lieu de deux l’un au dessus de l’autre sur le M8.Le dos en métal rejoint la face avant sur les côtés, les angles sont plus marqués sur le M9, et la couleur varie subtilement d’un côté et de l’autre. HTC joue avec les couleurs et les déclinaisons utiliseront parfois le doré sur les bords avec un dos argent ou noir, parfois un bord argenté et un dos à dominance grise.Les haut-parleurs « BoomSound » sont sensiblement identiques aux précédents, ce qui n’est pas une mauvaise chose au vu de la qualité de son produite par l’appareil. HTC a probablement du faire appel à un spécialiste pour l’aider dans cette tâche et même s’ils ne remplaceront peut-être pas un bon casque audio, le résultat est satisfaisant.L’écran 5 pouces est Full HD et la définition en pixels n’a pas changé depuis le M8. C’est plutôt une bonne chose que HTC n’ait pas cédé à la surenchère en optant pour un écran 2K comme le LG G3ou le Galaxy S6. D’après ce que l’on a pu en voir, l’oeil humain n’est pas suffisamment affuté pour différencier les deux types d’affichage, celui du M9 est net et lumineux.Processeur et logicielsLe HTC M9 est livré avec le dernier système Android 5.0 Lollipop et nous n’en attendions pas moins d’un téléphone haut de gamme. L’interface a été modifiée avec la dernière version de la surcouche maison d’HTC : Sense 7.A première vue Sense 7 fait meilleure impression que la version 6 qui était installée sur le M8. Le design est soigné mais simple, les icônes d’applications sont suffisamment espacées, les paramètres sont simples à utiliser tandis qu’un agrégateur d’informations prend place à gauche de l’écran principal. Cette nouvelle version propose également plus d’options de personnalisation, notamment un large choix de thèmes, de styles d’icônes ou de jeux de couleurs.Une autre nouveauté intéressante permet d’afficher des applications différentes en fonction du lieu où vous vous trouvez. HTC explique que l’appareil va d’abord apprendre quelles applications vous utilisez le plus au travail ou à la maison et les affichera là où vous en avez le plus besoin mais vous pouvez également les désigner manuellement.Le HTC M9 est équipé d’un processeur Qualcomm Snapdragon 810, un quadcore 64 bits qui sera épaulé par 3Go de RAM. Il semble être tout à fait réactif sur le système du M9 mais il faudra des tests et comparatifs ultérieurs pour se faire une idée plus précise.Batterie et appareil photoLa système Ultrapixel que l’on trouvait en appareil principal sur le M8 est maintenant utilisé comme caméra frontale. Grâce à des pixels plus grands il peut récupérer plus de lumière et convient donc parfaitement aux selfies parfois réalisé en intérieur dans des situations de faible luminosité.A l’arrière on trouve à présent un appareil avec un capteur de 20 millions de pixels avec un flash à double Led. Selon HTC le logiciel de gestion viendra corriger les zones trop claires, comme les ciels surexposés, et donner du détail aux zones d’ombre. Il faudra un test plus poussé pour confirmer ces aptitudes.Le mobile est alimenté par une batterie de 2840 mAh, légèrement plus puissante donc que celle du M8 qui permettra de tenir plusieurs jours selon HTC, mais tout dépend de l’usage que l’on fait de l’appareil bien entendu. La lecture d’une vidéo avec la luminosité poussée au maximum consommera forcément plus que l’utilisation d’une simple appli.Au final, ce HTC One M9 n’est pas une révolution du mobile mais s’appuie sur le succès de son prédécesseur. Si les possesseurs du M8 n’auront pas un intérêt immédiat à passer de l’un à l’autre, les atouts du M9, notamment au niveau de la puissance du processeur et des dernières améliorations du logiciel, en font un bon choix pour qui souhaite remplacer un smartphone un peu plus ancien par une valeur sûre.

Read more

La mutation des SSII en STI, le nouveau dÃfi…

Journal du Net

La mutation des SSII en STI, le nouveau défi de l’informatique Dans un marché toujours à la recherche de nouvelles compétences, un enjeu majeur se joue. Recruter non plus des compétences mais des êtres humains capables de les porter. Introduction à la SSIILes SSII, pour Sociétés de Services en Ingénierie Informatique, sont devenues parmi les plus gros employeurs dans le domaine de l’informatique. On en dénombre des centaines, dont certaines sont même connues du grand public sans pour autant savoir que ces sociétés sont des SSII.  Une SSII, c’est une société qui va employer un travailleur des métiers de l’informatique pour « louer » sa compétence à un tiers ou l’utiliser pour des projets réalisés au sein de la SSII. Aux fils des années ce qui était une entreprise employant des ingénieurs informaticiens, est devenue une multitude de professions très différentes les unes des autres. Pourquoi ? On ne fait pas le lien D’ailleurs cette diversité à pousser les acteurs du marché, regroupés  autour de la convention collective SYNTEC, à cesser de s’appeler SSII mais SSCI pour Société de Services et de Conseils Informatique en 1980. Mais le terme SSII est ancré dans les mémoires et les usages des acheteurs,  on se demande alors pourquoi le syndicat patronal a changé unilatéralement le nom des feu SSII/SSCI en ESN, cette fois pour Entreprise de Services du Numérique. Est-ce que cela reflète plus la réalité ? 1- Fonctionnement d’une SSIIPour commencer il faut comprendre comment fonctionne une SSII, ou SSCI, ou ESN, finalement peu importe le nom. Une SSII emploie donc un salarié qui a des compétences sur une problématique touchant l’informatique. Le salarié a alors deux grandes options, parmi d’autres que nous n’aborderons pas aujourd’huiLa régieCe salarié peut être placé chez un client de sa société pour y  travailler pendant une durée ne pouvant excéder trois ans au même poste. Il  sera  salarié du dit client, mais son contrat sera renouvelé entre le client et la SSII tous les trois mois. C’est un fonctionnement assez classique qu’on appelle la « régie ». Il apporte de la flexibilité au client, en augmentant la taille de ses effectifs temporairement ou en « louant » une expertise qu’il ne possède pas mais dont il a besoin ponctuellement.Le forfaitMais une SSII peut aussi réaliser des projets pour son client dans ses locaux, alors l’employé vient travailler dans sa SSII sans avoir forcément de contact direct avec le client. C’est ce qu’on appelle le « forfait ». Et alors ?Outre la différence entre la localisation du salarié, c’est aussi un mode de travail différent. Dans le cadre d’une « régie » vous êtes soumis au rythme du client qui paie la SSII et peut rompre le contrat si vous ne convenez pas à ses attentes. En travaillant au « forfait », le client a payé une somme fixe pour son projet, c’est la SSII qui gère les ressources qui travaillent sur ce projet. Le calcul est simple, plus le projet va vite, plus il est rentable. C’est une version simplifiée, bien évidemment cela dépend du salaire de chaque personne, du nombre, et de tout ce qui compose la rentabilité d’un projet. Les avantages et les inconvénientsL’avantage de la SSII, c’est de pouvoir travailler dans des groupes qui n’ont pas de poste ouvert en CDIou sur des projets tellement gigantesque que le client n’est pas en mesure de le réaliser seul. C’est aussi la possibilité, dans un temps relativement court, avec des missions de trois ou six mois, d’en faire plusieurs et donc d’élargir au maximum ses connaissances. Mais aussi de comparer les ambiances de travail entre les grands groupes et de plus petits acteurs, ou bien de découvrir une affinité avec un métier comme les assurances, plutôt que les jeux vidéo. C’est un choix très courant chez les jeunes qui ne savent pas encore quel est leur environnement de travail idéal, mais aussi idéal pour les gens qui aiment varier les plaisirs et qui préfèrent changer régulièrement de sujet. Le travail compose une très grande partie de notre vie autant que celui-ci réponde à vos attentes. Côté inconvénients, comme vous vous en doutez, il y a aussi des points à noter. Avec des missions en régie vous ne savez pas forcément où vous irez travailler géographiquement, ce qui amène certains salariés à enchaîner les heures de transport en communs, bien évidement la plupart des SSII cherchent des compromis entre lieu d’habitation et lieu de mission. En régie vous ne faites pas partie de l’entreprise, il est donc inutile de fantasmer sur les CE des clients ou l’abondement exceptionnel du PEE, vous avez vos accords de rémunérations avec votre SSII, qui peuvent d’ailleurs avoir d’excellents CE et PEE. Mais il se peut aussi, et c’est dramatique, que vous soyez tenu à l’écart. Oui à l’écart, dans un open-space spécial prestataires où vous toucherez les coudes de votre voisin, voire même de façon totalement contreproductive, tenu à l’écart de certaines réunions concernant le projet sur lequel vous travaillez.  Bien évidemment ce sont des exemples extrêmes mais malheureusement pas aussi rares que vous le penser.En résuméNous savons donc désormais ceci :  * La SSII est composé d’une multitude de métiers et non pas que d’ingénieur * Deux modes de fonctionnement : la régie (chez le client) et le forfait (dans la SSII) * Contrat et avantages de la SSII, et non pas du client final * La SSII est idéal pour multiplier les expériences ou ne pas tomber dans l’ennui2- Les SSII embauchent1 besoin = 1 recrutementComment embauchent les SSII ? Etant donné qu’elles sont tout ou partie dépendante des besoins de leurs clients ?  Commençons par l’évidence même, une SSII sait à l’avance combien elle pourra embaucher de personnes. Pas la première année d’existence, mais au fil de l’eau, elles anticipent les besoins et demandes de ses clients, et forcément elles parlent avec ses clients. Elle peut donc faire des projections. C’est finalement comme n’importe quelle entreprise. Là où il y a un  problème c’est qu’en réalité, les SSII sont très frileuses à l’idée d’embaucher quelqu’un et de ne pas lui trouver de mission. L’embauche qui devrait se faire sur les compétences de la personne,  se transforme alors en ce qu’on appelle « l’embauche sur mission ». C’est-à-dire que vous allez, accompagné d’un commercial, rencontrer le client et voir si vous lui convenez, ce n’est qu’ensuite qu’on vous fera la proposition d’embauche. C’est une pratique extrêmement courante mais qui a une faille monumentale. C’est que le client veut quelqu’un qui a déjà fait ses preuves chez un autre client, et comment savoir si le candidat a bien fait ses preuves si vous n’étiez pas son employeur avant ? Avec son CV ? En se basant sur sa bonne foi, son Facebook, ou son LinkedIn ?  Mais ce n’est que le début de la faille, comme vous cherchez un poste dans une SSII, vous avez postulé dans plusieurs sociétés qui ont malheureusement les mêmes clients. Vous voyez le couac venir ? Si la société A vous présente à son client X, la société B ne peut plus vous présenter à ce client étant donné que vous êtes censé  faire partie de la société A ou B. Du coup vous vous retrouvez avec la même proposition de potentiel poste, puisqu’il s’agit de recrutement sur mission. Mais attention ce n’est que la partie émergée de l’iceberg. Quand la société A vous appelle pour vous proposer une mission chez son client X, elle ne donne pas le nom du client car vous pourriez être tenté d’aller voir directement le dit client. Mais quand la société B appelle, qu’est-ce qu’elle fait ? Vous l’avez déjà deviné ! Oui, elle fait pareil. Vous êtes donc obligé de dire que vous avez déjà vu le client X. Et, aussi surprenant que cela puisse paraître, avoir révélé cette information joue nettement en votre défaveur. Car si vous avez vu le client X via la société A, comment se fait-il que vous ne soyez pas en poste quand la société B vous appelle ? Vous n’avez pas encore eu de réponse, donc forcément vous n’êtes pas en poste chez le client, ou alors vous prenez le temps de réfléchir. Inutile, la société B, elle, pense que premièrement on ne peut pas vous faire confiance car vous avez divulgué que la société A vous intéresse, que ce soit vrai ou non, pire, qu’elle travaille avec le client X, et c’est peut être nouveau pour la société B et elle n’est pas contente, mais ce qui va vous achever auprès de la société B c’est tout simplement que vous ne soyez pas en poste chez ce fameux client, car du coup, pour elle ça signifie que vous n’êtes pas à la hauteur. Oui, je sais, vous avez le sens de la logique et là vous trouvez ça totalement absurde, j’en suis navré mais c’est la réalité sans même forcer le trait. Attention, encore une fois, toutes les SSII ne pensent pas ça mais malheureusement cela arrive et beaucoup plus fréquemment que le pensez. Le mouton à 5 pattesDans un contexte économique tendu, les clients des SSII sont devenus plus qu’exigeants. De tout temps le consommateur ou le client a recherché le meilleur rapport qualité prix, mais désormais cela ne s’applique plus qu’aux objets mais aux services, en oubliant souvent que ces services sont fournis par des êtres humains semblables à eux-mêmes. Comme il est compliqué pour les non-initiés de comprendre une série de compétences informatiques bardées d’acronymes, nous ferons un parallèle avec des métiers connus de tous. Ainsi là où l’on demandait à l’époque un expert en électricité – c’est-à-dire un chercheur -, on demande en plus à ce que celui-ci puisse également jouer le rôle d’électricien – ce qui n’est pas vraiment le rôle d’un chercheur -, mais aussi d’être capable de connaitre le court du cuivre – car c’est ce dont on a besoin pour transmettre du courant -, sans oublier que des connaissances en énergies renouvelables, aussi bien solaires, qu’éoliennes, qu’hydroliennes, seraient un plus, qui est tout de même fortement recommandé. Cela fait un spectre de connaissances plutôt vaste qu’il est difficile de maitriser parfaitement de bout en bout.Nul besoin de blâmer les clients, tout cela est induit par une conjoncture économique qui nous dépasse, voire plus simplement de lignes directrices qui ont été dictées en plus haut lieu au sein de l’entreprise du client.  Malheureusement on oublie bien souvent qu’une personne peut apprendre, et on se retrouve donc dans des impasses avec des profils pourtant qualifiés qui ne font pas mouche auprès du client final. C’est comme le dit Jean-Louis Servan-Schreiber lors de sa présentations TEDx Paris 2011, dans « Les quatre paradoxes de la vitesse », « nous avons tellement pris l’habitude que tout aille vite que nous sommes désormais dans le monde de l’immobilisme ». On considère donc qu’un prestataire doit être opérationnel tout de suite. Ce qui bien sûr ne peut être vrai, et ce dont les clients ont bien conscience malgré tout. On regardera les compétences techniques, les expériences passées et si elles sont similaires à la demande du client, la formation dans certains cas, mais aussi l’intérêt pour la veille technologique qui va prendre  un pas démesuré sur le profil. C’est alors paradoxal car si cet intérêt montre bien la volonté d’apprendre par soi-même il n’est pas forcément révélateur de la capacité à apprendre, ni même de la capacité à se remettre en question ce qui est pourtant nécessaire pour apprendre. Démontrons facilement cette évidence : si vous avez l’habitude d’enfoncer un clou dans un parpaing avec un caillou et que vous ne vous remettez pas en question, vous aurez peut-être la capacité à planter un clou, mais probablement que vous passerez à coté de beaucoup de chose si vous refusez d’utiliser un marteau comme votre voisin vous l’a montré.En résuméNous savons donc désormais ceci :  * Un recrutement sur mission qui peut amener à des situations délicates * Un recrutement sur profil trop peu existant * Contexte économique tendu = Besoin de personnes à forte capacité d’adaptation * Contexte économique tendu = Besoin d’un bagage technique solide 3- Les trois grands profils à la portée de la SSIILa star du codeLa star du code correspond en réalité à deux types de profils, les « séniors » qui ont acquis une expertise dans un ou plusieurs domaines et les juniors. Oui, les jeunes avec peu d’expérience professionnelle, à peine sorti de l’école qu’ils ont déjà des compétences impressionnantes et une maturité exceptionnelle, la valeur n’attend point le nombre des années. En réalité ces jeunes gens ont réalisé en parallèle de leur scolarité,  parfois faites en alternance ce qui permet d’acquérir une expérience professionnelle tant recherchée, des projets personnels. Que ce soit via le statut d’autoentrepreneur ou juste pour le fun. Mais  souvent le fun prend une importance car n’étant pas limité par un cadre ou un existant, ils ont pris les outils les plus modernes que les plus grosses sociétés clientes souhaitent désormais aussi utiliser. Ils ont donc une longueur d’avance et peuvent même être à l’origine d’un changement de paradigme dans les sociétés où ils exerceront leurs compétences. C’est un point clé, l’expérience, quelle qu’elle soit, est un bénéfice pour le candidat dans une SSII s’il peut montrer qu’il n’a pas juste copié mais qu’il l’a bien réalisé et qu’il a compris l’essence même de ces nouveaux outils.  Car le point commun qu’on retrouve chez les juniors c’est de refaire ce qui existe déjà mais d’une façon différente. Cette volonté de refaire permet d’apprendre, de comparer les solutions existantes et les leurs, mais à un coût dramatique pour une société. Il faut donc cadrer ces jeunes profils en leur expliquant qu’il faut être pragmatique. Pour les séniors, le discours est très différent, mais la capacité de se remettre en question est d’autant plus importante. Rien de plus néfaste dans un groupe que quelqu’un d’ancré dans ces certitudes et qui empêche les autres d’avancer et de progresser. Quelles que soient les années d’expérience, l’écoute et l’échange dans un monde en perpétuel évolution qui est celui de l’informatique sont des points primordiaux chez ces séniors. Le juniorA l’opposé des stars du code junior, nous avons le véritable junior. Sorti de l’école, souvent une école d’ingénieur plus ou moins réputée, mais qui n’a pas d’expérience ni de projet personnel à mettre à son compte. C’est alors un cas difficile à traiter, car nous avons vu que ce type de profil ne correspondait pas aux attentes du client, mais celui-ci peut comprendre que de par la jeunesse il n’ait pas encore l’expérience. Mais tout de même, certains de ces camarades de promotion l’ont, pourquoi pas lui ? Mauvais choix ? Il ne sait pas se mettre en avant, c’est au recruteur de chercher et de trouver s’il pourrait lui trouver un moyen d’évoluer rapidement. Après tout les SSII sont le royaume de la formation accélérée. Quel que soit le secteur d’embauche, le manque d’expérience est toujours préjudiciable, et pourtant il faut bien commencer quelque part. C’est alors des profils qu’on va retrouver dans le point suivant : Les âmes perdues. Les âmes perduesLes âmes perdues, mon cheval de bataille personnel. Ce sont des gens qui ont acquis de l’expérience au fil du temps mais toujours dans des missions en quasi solo. Des missions où ils ont dû jouer plusieurs rôles comme celui de designer, intégrateur, chef de projet, chef de produit etc Mais surtout ils ont évolué dans des missions ou chez des clients sans encadrement. Comment progresser si personnes ne vous montre vos erreurs et vous propose son aide pour vous améliorer ? Comment progresser seul dans un contexte où seul le résultat compte et non la manière de faire ? La réponse est simple, c’est une mission impossible car l’envie va disparaitre, l’âme perdue ne sera pas écoutée par ses supérieurs car ils ont déjà un système qui marche, ils veulent juste quelqu’un qui le maintienne.  C’est le profil le plus compliqué de tous, car après 8 voire 10 ans d’expérience les âmes perdues ont un bagage parfois de junior. Mais ce n’est pas qu’ils n’ont pas accompli de grandes choses pour autant. Au lieu de prendre une bétonnière pour faire le travail, ils ont construit la bétonnière sans savoir que ça existait, ou sans qu’on les laisse en utiliser une déjà prête. Ils ont dû réinventer la roue jour après jour faute d’encadrement et faute de temps. Mais s’ils savent construire une bétonnière, il devrait être capable sans trop de problème de s’en servir, il leur faudrait juste qu’on les laisse essayer un modèle non conçu par leur soin.  Ce sont souvent des gens qui sont à bout et qui veulent absolument sortir de cette situation avec des conditions de travail inhumaine. La plupart du temps mal payés de par le manque de mot clé sur leur CV. Ce qui est affreux, c’est que certains recruteurs vont enfoncer le clou en demandant pourquoi ils n’ont pas fait de veille technologique, pourquoi ils n’ont pas utilisé tel outil. De quoi dévaloriser encore plus la personne. Mais ce qu’il faut comprendre c’est que ces âmes perdues sont dégoûtées de ce qu’ils aimaient. Au point de prendre l’option de la reconversion professionnelle ! En résuméNous savons donc désormais ceci :  * Les stars du code : junior avec expérience perso ou sénior qui sait se remettre en question * Les juniors : pas d’expérience comme les stars et donc plus délicat * Les âmes perdues : des profils avec de l’expérience mais pas au goût du jour 4- Passer de la SSII à la STIC’est quoi une STISTI, c’est l’acronyme de Société en Talents Informatique. C’est une société dans laquelle l’humain prime sur les compétences car celles-ci peuvent être acquises dans un milieu adéquat. C’est donc aussi un milieu où il est possible de bénéficier de formations ou d’un encadrement pour ne plus être qu’une liste de compétences. En effet, il ne s’agit pas d’encadrer les nouvelles recrues avec pour seul objectif l’obtention d’une certification, mais plutôt de leur permettre de profiter de l’expérience des autres pour leur donner le goût des choses bien faites. Mais encore une fois, au-delà de la qualité du travail produit, c’est l’environnement dans lequel celui-ci est produit qui a aussi toute son importance. On parle de méthodologies de travail, mais aussi de capacité aux relations interpersonnelles et comment l’assertivité peut nous aider à progresser.  On pourrait parler de philosophie d’entreprise, mais allons même plus loin, et parlons d’évangélisation de cette vision. Pas parce que cette philosophie est la meilleure, mais parce que les êtres humains qui y adhèrent sont prêts à recevoir les critiques et à s’améliorer continuellement pour tendre vers ce qui pourrait être parfait et pour faire en sorte que celle-ci touche le plus de gens possible car ils sont heureux de travailler. L’essence même du processus, est de se remettre en question. Mais aussi remettre en question ce qu’on nous a appris.  Prenons une idée préconçue et largement répandue en France. Les gens qui font du télétravail, ne travaillent pas autant que s’ils étaient à leurs postes.  Premier point, est-ce le nombre d’heures qui compte ou la qualité du travail effectué voire la quantité pour les plus bassement matérialistes ? Quel est l’intérêt de garder une personne rivée à son siège si elle est inefficace et qu’aller faire un tour de vélo lui changerait les idées pour être plus disponible ensuite. Nous sommes restés dans cette espèce de structure scolaire qui ne répond pas à un besoin humain mais à un besoin de rentabilité sans même être réellement capable de la mesurer car on ne laisse pas la possibilité de tester la seconde hypothèse.  Deuxième point, prenons par exemple le temps de concentration en France d’un adulte au travail qui est de… 12 minutes… Au-delà vous serez dérangé par des mails, les gens à qui vous n’avez pas répondu, vos collègues, etc. A l’opposé en télétravail vous pouvez fermer vos mails, couper votre téléphone, et travailler sans sources de perturbations. L’esprit se calme, il est plus apte à se concentrer, il est pleinement conscient.  Troisième point, est-ce la surveillance de la hiérarchie qui compte ou la confiance de celle-ci ? C’est simple, avez-vous déjà travaillé pour quelqu’un que vous n’aimiez pas. Mais alors pas du tout. Oui ? Vous avez travaillé correctement ? Non. Le travail ne peut pas s’accomplir sous la contrainte ou sous des objectifs même rémunérés. Cette idée même de rémunération sur objectif est contreproductive. Dan Pink a expliqué ces tenants et  aboutissants de façon formidable dans un talk TED. Pour faire simple, plus l’objectif est soumis à une prime importante plus la productivité décroit. Mais on peut y prendre d’autres paramètres comme la confiance et le respect. Vous aurez toujours envie de satisfaire quelqu’un que vous admirez plutôt que quelqu’un que vous détestez.  Pour ce qui est de diffuser cette philosophie c’est donc à nous consultant d’aller proposer notre vision pour faire en sorte de rassembler les gens autour de nous et de les faire avancer. Inutile d’être hiérarchiquement responsable pour cela, au plus bas de l’échelle des choses peuvent se faire ne serait-ce que par l’entraide.  Les points clés de la STIPour rentrer plus dans le détail de la philosophie de la STI, voici donc quelques points clés à retenir :  * Agilité : être capable de comprendre que dans un temps donné tout n’est pas forcément possible mais que ce n’est pas grave. * Assertivité : pas de lutte de pouvoir, personne ne cherche à dominer l’autre ou à lui imposer son point de vue. * Bienveillance : car il est plus simple de parler des problèmes et d’aider celui qui en a que de l’enfoncer dans son dos, pour aller plus loin chercher les filtres de Socrate. * Pragmatisme : parce que même si on a fortement envie de tout recommencer à zéro ça n’est pas forcément rentable, ou parce que se lancer dans une nouvelle technologie sans retour de la part d’autres personnes c’est très risqué. * Accompagnement : être capable de donner de son temps pour faire progresser les autres, c’est un investissement, mais celui-ci est souvent plus rentable que la bourse.  * Remise en question : car les choses évolues, les méthodologies de travail les outils, les envies de chacun, tout doit être posé sur la table pour en parler avec assertivité et bienveillance. 5- Recruter l’humain et non son expériencePour son envieUn des points essentiels de cette mutation est de cesser de recruter des gens uniquement pour leur expérience et parce qu’ils savent se vendre. Il faut au contraire chercher les gens qui ont l’envie. Envie d’apprendre, envie de partager, envie de progresser ou même envie de se poser des questions. L’envie est une qualité nettement supérieure à un diplôme d’une école chèrement payée.  L’humain est plus que son parcours sur son CV, il est impensable de se passer d’une discussion, lors de l’entretien d’embauche, sur la vie quotidienne les passions etc. Il est possible d’ailleurs que le candidat ne sache pas se vendre mais quand il vient à parler de son engagement dans son club de sport ses yeux s’illuminent et vous explique en quoi ce sport est une véritable passion et que ça lui a permis de surmonter des épreuves ou de gagner en sérénité car il a trouvé un exutoire.Pour sa capacité à se remettre en questionOutre cette envie, c’est aussi la capacité à se remettre en question qui est primordiale. Bien souvent on demandera à un candidat s’il maitrise telle ou telle chose et comment, avec des fois un test technique. Mais le problème de cette méthode c’est que vous qui connaissez le sujet, vous vous attendez à ce que votre interlocuteur sache le faire de la même manière que vous. Prenons un exemple simple, vous savez faire un gâteau au chocolat, si le candidat vous dit qu’il sait en faire aussi avec les bons ingrédients ça peut vous convaincre, même s’il suit la même recette que vous, vous n’obtiendrez pas le même résultat. De fait votre avis est biaisé en cherchant la compétence.  En revanche si vous cherchez quelqu’un qui a envie de faire de la cuisine et qui a déjà commencé à faire des gâteaux, vous n’aurez aucun mal à lui apprendre votre manière de faire. Et c’est là l’important, c’est d’arriver à ce que votre but soit commun. Et c’est beaucoup plus simple à faire avec quelqu’un qui sait se remettre en question qu’avec quelqu’un qui campera sur ses acquis, car après tout, un gâteau au chocolat c’est un gâteau au chocolat.  Recruter des juniors en pépinièrePour parvenir à ses objectifs de recrutement, la STI se doit de prendre des personnes juniors. Ces juniors peuvent alors être placés dans une pépinière qui va leur permettre de grandir parmi d’autres membres de vos équipes qui répondent justement à votre but. Ainsi cette jeune pousse va pouvoir grandir selon vos exigences. Il est logique de procéder ainsi car c’est un gain de temps considérable. Plutôt que d’essayer de tordre un vieux chêne autant prendre un jeune bambou plus souple.  Ce n’est pas là de la manipulation, c’est juste votre capacité à intégrer une nouvelle personne avec toutes ses différences au sein de votre entité dans un but commun dont on parle. D’autant plus que les juniors auront toujours des questions pertinentes vous obligeant à vous remettre en question et vous efforçant à garder votre talent de pédagogue.Recruter les âmes perdues, et viteRecruter les âmes perdues est essentiel. Comme nous l’avons vu elles savent construire une bétonnière et s’en servir, il ne reste qu’à leur apprendre à se servir d’un nouveau modèle. C’est une chose aisée si tant est qu’elles répondent à vos valeurs décrites plus haut. L’avantage qu’il y a c’est qu’une fois ces âmes perdues placées dans votre pépinière sa croissance va s’accélérer car elle n’a pas tout à apprendre, juste à modifier certaines choses. A la sortie de la pépinière vous aurez en plus de quelqu’un qui répond aux standards actuels et à vos valeurs, quelqu’un qui a de l’expérience comme le demande vos clients. Certains l’ont faitC’est le cas de Heineken avec cette vidéo intitulée « The Candidate ». On y voit un certain nombre de personnes répondre à des questions types, mais c’est bien la personnalité et l’engagement personnel qui l’emporte à la fin.En résuméNous savons donc désormais ceci :  * Qu’une STI c’est d’abord la gestion des talents * Qu’une STI fait grandir les gens qui ont le potentiel  * Qu’une STI a des valeurs importantes qui ne sont pas négociables mais améliorables * Que recruter et former c’est nettement plus rentable que de tordre un vieux chêne ConclusionLa mutation d’une SSII est possible, c’est un investissement qui rendra tout le monde plus heureux et plus motivé. Cette mutation, elle a déjà débuté au Brésil mais en allant encore plus loin. Il ne vous reste plus qu’à définir quelles sont les valeurs humaines que vous voulez porter. Peu importe qu’elles collent à 100% à ce qui est décrit ici. Mais il est essentiel de définir ce profil idéal et d’essayer de l’atteindre via des formations si nécessaire, chacun en sortira grandi. C’est un cercle vertueux. La phrase qui synthétise tout ce qui est décrit ici serait : Il est temps de cesser d’embaucher « des compétences », mais des gens qui ont les qualités que vous souhaitez pour les porter et vous faire grandir.

Read more

[Expert] Comment éviter de se faire «…

Frensh Web

Dans cette troisième partie d’une série d’articles sur l’évitement de l’uberisation, nous nous penchons sur trois autres phénomènes qui accompagnent les innovations de rupture après avoir traité des insatisfactions clients et de la défragmentation des marchés et des baisses de prix : * Les bouleversements de l’équilibre produit et service liés à des économies d’échelle pour un sens et à la commoditisation des produits dans l’autre sens. * La numérisation des savoirs qui est en train de bouleverser de nouveaux métiers protégés jusqu’à présent et notamment ceux de la santé qui vont probablement être confrontés à d’importants bouleversements. * Le transfert du travail chez le client , qui génère une réduction des coûts apparents et crée une spirale déflationniste, en particulier dans l’économie du savoir et des contenus.Comme les phénomènes précédents, ceux-ci peuvent s’additionner dans les mouvements de migration de valeur. Bouleversements de l’équilibre produit et service De nombreuses disruptions se sont manifestées sous la forme d’un rééquilibrage dans un sens ou l’autre entre produits et services dans un domaine d’activité.Le glissement du mix vers le produit intervient quand le produit est un modèle plus scalable que le service. Dans ce cas, la R&D de création du produit est amortie par sa vente en volume. C’était le cas de l’industrie du logiciel à ses débuts. Ce genre de migration se manifeste avec tous les outils qui permettent de « faire soi-même » (do it yourself) : créer un site web avec des templates (qui évitent l’agence de communication), la PAO qui permettait en théorie de se passer de maquettiste, le SEO / SEM réalisé avec des outils d’analytics en ligne ainsi que dans les places de marché où tout le travail est réalisé par le logiciel et par les acteurs d’un marché biface (vendeurs-acheteurs). C’est ici le royaume de l’automatisation et du self-service. J’ai croisé un exemple de migration vers le produit par hasard au détour d’un hôtel à Las Vegas avant ma visite du CES 2015. Dans le Bally’s se trouvait un étrange système d’Aquamassage . Il s’agit d’un système de massage de l’ensemble du corps qui s’appuie sur l’envoi de jets d’eaux à ceci près que l’on reste sec grâce à une paroi en caoutchouc entre les jets d’eau et le client. Le positionnement ? Un massage sans masseur ni masseuse, et on peut en plus rester habillé. Sans que le numérique soit en cause, on est ici bien face à un produit qui peut remplacer un service. L’Aquamassage n’a pas pour autant remplacé toutes les masseuses et masseurs. L’une des raisons est le cout probablement non négligeable du système de massage. Dans le numérique, les logiciels « scalent » mieux du fait de couts marginaux quasiment nuls et leur prix est généralement assez bas, facilitant la transformation de services en produits.A contrario, des disruptions peuvent intervenir dans l’autre sens, du produit vers le service. Elles interviennent dans le cas où les produits se commoditisent et que leur prix baisse sans que la complexité de leur mise en oeuvre baisse pour autant. C’est arrivé avec le marché des PC d’entreprises, autant desktop que serveurs, ce qui a amené les grands constructeurs (IBM, HP, Dell) à réorienter une bonne part de leur activité dans les services, qui génèrent de meilleures marges. L’activité de construction a été en grande partie délaissée aux constructeurs asiatiques comme Lenovo qui savent faire du produit mais pas du service. Dans le même temps, IBM a poursuivi son activité d’édition de logiciels qui générait les meilleures marges. En se focalisant sur les services et les logiciels, elle a simplement délaissé l’activité qui générait les marges les plus faibles, dans le business du matériel de commodité (PC, serveurs Intel). Dans les années 1980/1990, le les marges dans le matériel et notamment les mainframes et les mini (AS400) étaient très élevées, un peu comme le sont celles d’Apple aujourd’hui.Le processus de collaboration dans la R&D logicielle mise en oeuvre dans la création de logiciels open source a aussi entrainé une migration de ce genre. Le passage est plus facile à accepter pour les constructeurs que pour les éditeurs de logiciels. La raison est simple : la marge d’un constructeur est moins bonne en général que celle d’une société de service. Donc passer du premier au second permet d’aller dans le bon sens. Alors que la marge d’un éditeur de logiciel est généralement supérieure à celle d’une société de service. Passer du logiciel au service fait baisser les économies d’échelle et la marge.Les constructeurs automobiles seront peut-être amenés à appliquer le scénario produit vers service, avec l’avènement des voitures à conduite automatique. Celles-ci seront de plus en plus proposées sous forme de service à la demande, au détriment des voitures que l’on possède.Les logiciels en cloud sont un cas particulier. Ce sont des produits vendus comme du service, sous forme d’abonnement. Le modèle de distribution est scalable tout comme le produit et le revenu est récurrent, comme le sont habituellement les activités de services. Uber fonctionne sur un mode identique : c’est un service fourni via du logiciel avec un modèle très scalable.La même transformation est en cours avec la transition de la vente de CD de musique et de DVD de films vers leur diffusion sous forme dématérialisée. Cela a permis à Apple de s’imposer avec iTunes, surtout dans la musique, et à Netflix de faire de même dans la vidéo. Le dernier a réussi à gérer une transition en passant de la location de DVD ‘physiques’ au streaming vidéo. Le second l’a fait plus discrètement, en supprimant progressivement les lecteurs de DVD/CD de ses Macintosh, surtout les laptops comme le Macbook Air.Comment se préparer ? Il faut anticiper la commoditisation des catégories de produits dans lesquelles on exerce son activité et envisager de déplacer le centre de gravité de son activité vers des activités moins standardisées et si possible à meilleures marges, ou alors vers des métiers adjacents aux siens qui permettent de survivre dans de meilleures conditions. Numérisation des savoirs La numérisation des savoirs sous forme de contenus en ligne voire de systèmes d’intelligence plus ou moins artificielle va transformer de nombreux marchés. C’est un cas de migration d’activités de services soit vers des produits soit vers des services, soit une combinaison des deux.Ici, ce sont des métiers et des professions libérales ou des TPE qui sont menacés plus que de grandes entreprises. Toute forme d’automatisation a comme conséquence de réduire la quantité de travail nécessaire pour produire un service donné. Elle génère des économies d’échelle qui concentrent la valeur sur un petit nombre d’acteurs au détriment d’un grand nombre d’intervenants.Les métiers touchés par ce phénomène en devenir sont notamment ceux de la santé, du droit et de l’enseignement. Jean-Michel Billaut l’a très bien exposé dans certains de ses articles ainsi que dans une intervention au Hub Institute Prediction Day de janvier 2015.Certains métiers des agences de presse et du journalisme sont menacées avec l’apparition relativement récentes de générateurs automatiques d’articles voire de vidéos pour les news. Ces mêmes agences de presse avaient été créées elles-mêmes pour défragmenter le marché de presse par la mutualisation d’une partie des moyens de production de contenus.Prenons le cas des médecins généralistes. Si on analyse le processus de prise de rendez-vous, de la visite et de ce qui suit, on peut anticiper qu’une grande partie des étapes et tâches vont être progressivement grignotées par de nouveaux produits et services.La première révolution provient des capteurs permettant aux patients de faire leur propre autodiagnostic. Ils sont généralement reliés aux smartphones : les thermomètres connectés, les tensiomètres connectés (ci-dessous à gauche, celui de Withings), les stéthoscopes connectés (celui de Thinklabs), les otoscopes (à sa droite, le CellScope OTO qui est relié à un service de prise de rendez-vous en cas de problème), le Skin Scan pour scanner un mélanome, les échographes portables (le MobiUS SP1 de MobiSante), les optiques permettant de transformer un iPhone en ophtalmoscope (comme le D-Eye, modulo le besoin d’utiliser des gouttes pour élargir la pupille) ou encore les capteurs de glycémie implantables pour les diabétiques et pré-diabétiques.D’autres systèmes d’autodiagnostic ne manqueront pas d’apparaître, à plus ou moins long terme : des dérivés de ce prototype de détecteur de maladies infectieuses pour smartphones (ci-dessous), divers systèmes d’analyse biologique (sang, urine) existants ou à venir dans la lignée des « labs on a chip » et même des straps d’analyse de la sueur (chez la startup Electrozyme ). A plus long terme, on pourra avaler des nanoparticules pur détecter des cellules malignes, un domaine dans lequel Google planche actuellement ainsi que la startup Bikanta pour détecter les cancers du sein avec des nanoparticules de diamant fluorescentes (que l’on ne sera pas pour autant tenté de prendre à tous les petits déjeuners…).Tous ces capteurs disparates seront un jour intégrés et miniaturisés. Des projets dans ce sens sont déjà lancés comme ceux qui candidatent au Qualcomm Tricorder XPrize, un concours étalé sur plus de deux ans et doté de 10 millions de dollars de financements.Diverses sociétés ont déjà créé des stations de télémédecine permettant aux patients de capter de nombreux paramètres tels que le HealthSpot , la Lifeclinic Higi Station ou la Consult-Station du français H4D (dans l’ordre, ci-dessous). Elles fonctionnent en liaison avec un docteur à distance installé dans un centre d’appel ou chez lui.Diverses formes de médecine préventive se mettent également en place. La plus simple consiste à s’inciter soi-même via un tracker à avoir une activité physique régulière. On peut aussi surveiller la qualité de ce que l’on mange avec le Scio ou le TellSpec. D’autres formes plus complexes interviendront le jour où le séquençage d’ADN sera généralisé avec une exploitation fine des résultats dans le cloud.Mais pour un grand nombre de pathologies standards, des services en ligne sont ou seront capables d’intégrer les informations issues de ces divers capteurs et de d’identifier l’origine de symptômes comme DocteurClic, ou encore Google qui s’apprête à lancer un moteur de recherche dédié aux pathologies de santé. Certains de ces outils seront capables d’analyser les images générées par les capteurs cités plus haut. Des prescriptions pourront être faites, éventuellement vérifiées par des systèmes experts à la Watson, ou par des docteurs à distance. Puis le cas échéant, les médicaments pourront être livrés par correspondance dans les heures suivantes.Dans le cas où une visite chez un médecin devra avoir lieu, des services de prise de rendez-vous en ligne trouveront le docteur disponible le plus rapidement et le plus proche. Très souvent, celui-ci prescrit des examens de laboratoire ainsi que examens d’imagerie (IRM, radio, scintigraphie, doppler). Aujourd’hui, ces examens d’imagerie sont réalisés un par un. Et dans les bilans de santé, on se contente de vérifier la composition du sang et de l’urine.Pourtant, un examen des os, des poumons, des corps mous et du système sanguins sont utiles pour détecter en avance l’émergence de nombreuses pathologies (tumeurs, maladies cardio-vasculaires). On utilise pour l’instant des tomographes mono-fonctions tels que l’lAquilion LB de Toshiba et le General Electric Revolution CT (rayons X). Ils reconstituent un corps humain en 3D avec toutes ses composantes. Pourquoi n’existe-t-il pas un scanner capable d’associer dans un seul appareils toutes les technologies de tomographie (rayons X, IRM, …) permettant d’identifier toutes les pathologies d’un coup ? A l’origine, c’est surtout parce que les métiers sont très cloisonnés. C’est aussi lié au cout élevé des ces engins. Mais on commence à en voir le jour comme avec ces systèmes capables de cartographier le cerveau avec précision.Le cloisonnement des métiers de santé et des spécialistes bloque une part des innovations du secteur. Sans compter les déboires – en France – du fameux dossier médical mal partagé et en place sur moins d’un demi million de personnes. Cette médecine en pièces détachées est amenées à se transformer. Elle le fera sous le coup d’un mélange d’uberisation (intermédiation pour trouver un médecin), de nestification (une partie de l’activité des médecins remplacée par des outils d’autodiagnostics), le tout achevé par une défragmentation qui peut provenir aussi bien des professions de santé que par un acteur externe. On retombe sur le point de la défragmentation abordé dans le second article.Les médecins ne disparaîtront pas pour autant. On fera plus appel à eux à distance, notamment dans les zones mal couvertes. On fera toujours appel aux métiers où l’intervention humaine sera nécessaire, notamment les dentistes, ophtalmologues, kinés et chirurgiens.Que devraient faire ces professions pour éviter de se faire ainsi désintermédier ? Aujourd’hui, ils résistent plus par conservatisme que par le sens de l’innovation. C’est notamment le cas du Conseil national de l’Ordre des pharmaciens qui empêche par la voie juridique la startup de Montpellier 1001Pharmacies de se développer pour faciliter l’accès aux médicaments.Le bon sens serait que les métiers de santé prennent en compte les évolutions technologiques pour faire évoluer la valeur ajoutée qu’ils apportent, pour faire réduire les coûts de santé qui augmentent sans cesse et pour rendre celle-ci accessible au plus grand nombre. Ils doivent aussi adopter des outils qui simplifient la vie de leurs patients ou clients. Là encore, de la défragmentation et de la mutualisation serait la bienvenue. Si les métiers de santé continuer d’avancer en ordre dispersé, ils se feront à coup sûr à la fois uberiser et nestifier violemment un jour ou l’autre.L’autre leçon de l’histoire est qu’il faut évidemment encourager le développement de startups et PME innovantes dans le secteur des medtechs, et notamment accompagner leur développement international. Cela passe par un encouragement des praticiens à s’y impliquer d’une manière ou d’une autre. Il m’arrive de croiser des entrepreneurs dans ce secteur, notamment chez Scientipôle Initiative, et ils sont très souvent eux-mêmes issus des métiers de santé ou bien ont des praticiens dans leur équipe de fondateurs ou d’investisseurs.Les métiers du droit ne seront pas aussi bien protégés que les médecins et spécialistes de la santé. Ils risquent d’être plus amplement numérisés même si le droit est souvent complexe et ambigu, surtout en France. On voit déjà des services en ligne qui apparaissent pour faciliter la création de contrats standards dans les PME (Captain Contrat) et les procédures juridiques des particuliers (demanderjustice.com). Ce n’est qu’un début car ces services se focalisent sur des tâches relativement simples. Mais à terme, ils se sophistiqueront et seront capables de traiter une part de plus en plus importante des questions juridiques des entreprises et des particuliers.Comme pour les contenus (musique, presse écrite, etc), il n’y aura pas 36 solutions pour les professionnels : il leur faudra s’adapter et exploiter tous ces outils pour être plus efficaces ou bien… disparaître ou devoir se focaliser sur des marchés de niche à très forte valeur ajoutée. Transfert du travail chez le client Le numérique et l’Internet ont déclenché une autre migration de valeur phénoménale : le transfert du travail chez le client, mais pas forcément la valeur économique associée, qui est le plus souvent conservée par l’agrégateur.On la retrouve dans tous ces services en ligne dont la valeur provient des données des utilisateurs, fournies soit explicitement (l’User Generated Content) soit implicitement (les données de parcours dans les sites, ses recherches, ses achats, ses déplacements, ses relations). Dans l’UGC, le travail est transféré vers le client mais pas la valeur économique qui reste chez celui qui l’agrège. Google fait payer la publicité via les AdWords mais ne rémunère pas les développeurs et éditeurs qui créent des liens entre les sites web, servant à générer le PageRank. Ce sont des tâches élémentaires trop petites et dispersées pour justifier une rémunération traditionnelle. Dans la même veine, Facebook ne rémunère pas les producteurs des vidéos qui sont relayées dans son réseau social.La presse écrite fonctionne maintenant sur ce modèle en agrégeant de plus en plus du rédactionnel qui provient de contributeurs non journalistes et non rémunérés. Tous ces contributeurs sont motivés par la visibilité générée par la diffusion de leur contenu dans les sites médias. Cela repose sur l’égo et la promesse d’une notoriété éventuellement monétisable par la suite. C’est un circuit de dupes car à part celui qui est en haut de la pyramide, tous les autres se font avoir dans le système avec un travail qui n’est pas rémunéré à sa juste valeur, ce d’autant plus qu’il est extrêmement fragmenté plus on descend dans le bas de la pyramide d’agrégation.Ici, les premiers « uberisés » sont les contributeurs qui tombent collectivement dans le piège de la création de contributions non rémunérées. Tombent ensuite ceux qui ont l’habitude de vivre de leur travail de création. L’Internet a ainsi permis la création d’un inventaire de contenus dans tout un tas de domaines. Les contenus sont abondants et leur commoditisation en a baissé la valeur faciale. Il est difficile de lutter contre ce phénomène autrement qu’en se différenciant. L’UGC a aussi déporté la valeur du produit (le contenu) vers le service (conseil, conférences, etc).Photo : Picobrew.jpgVue au CES 2015, la Picobrew permet de produire de la bière chez soi à partir de grains (avoine, …). Le transfert de valeur vers l’individu prend d’autres formes avec des produits qui permettent aux consommateurs de produire eux-mêmes des biens de consommation courante : les outils pour la cuisine qui permettent de préparer des plats en lieu et place des plats cuisinés industriels (comme le Cookeo de Moulinex dans le groupe Seb), la Picobrew vu au CES 2015 qui permet de produire de la bière chez soi, le SodaStream qui sert à produire ses boissons gazeuses aromatisées, les panneaux photovoltaïques pour produire sa propre électricité ou les outils d’autodiagnostic dans le domaine de la santé ou encore de l’automobile.L’impression 3D pourrait générer le même genre de migration avec un déport de la valeur chez les utilisateurs, capables d’imprimer leurs propres pièces détachées. Nous n’y sommes pas encore dans la pratique car les objets imprimables chez soi ne sont pas encore assez nombreux et le coût et la facilité de mise en oeuvre des imprimantes 3D pas adaptés aux besoins actuels.Le do-it-yourself transfère la valeur du produit vers l’outil qui créé le produit et le consommable associé. L’arbitrage des consommateurs s’appuie sur un équilibre variable entre temps (que cela prend de faire soi-même contre acheter du tout prêt), argent (le prix du tout prêt vs celui du fait-maison) et la valeur émotionnelle (le plaisir de faire soi-même vs celui d’obtenir une satisfaction immédiate dans l’achat du tout prêt).Certaines entreprises n’ont pas compris que le marché demandait plus de « do it yourself ». J’en ai fait l’amère expérience avec la marque hi-fi Denon. Il se trouve que j’utilise un amplificateur de cette marque dont un bug empêche le bon fonctionnement. Pour le corriger, il faudrait installer une mise à jour du firmware dessus via une liaison série RS-232C. Or, il est impossible de télécharger ce firmware en ligne. Quand on demande ce firmware à Denon, ils indiquent qu’il faut apporter l’amplificateur dans un centre de réparation agréé. Non seulement, cela coûterait surement quelques centaines d’euros, mais cela prendrait du temps, ne serait-ce que pour débrancher et rebrancher sans se tromper les nombreux câbles qui arrivent dans l’amplificateur. Je peux vous dire que je suis plus qu’insatisfait par la marque en question et qu’il va leur en coûter cher à l’avenir !On peut mettre ici l’économie du partage ainsi que l’intermédiation de services où la plateforme d’échange ne produit rien, mais met en relation des prestataires qui ont du temps et pas d’argent avec des clients qui ont de l’argent mais pas de temps. Dans l’histoire, seul l’intégrateur a un modèle « scalable », basé sur du logiciel et du cloud. Tout du moins, une fois qu’il a réussi à créer un inventaire de clients et de prestataires de taille critique. Le modèle est scalable seulement pour l’agrégateur car sa valeur ajoutée passe par du logiciel tandis que tout ce qui est manuel – et donc peu scalable – est réalisé par les offreurs et demandeurs de services.Dans le cas des terminaux permettant de faire ses courses en hypermarchés et d’enregistrer soi-même le prix des produits acquis, le client là encore fait le travail de la caissière avec l’impression de mieux contrôler ses achats et de gagner du temps en évitant la queue à la caisse en sortie.Le comble sont celles des banques qui ont transféré une partie du travail de leurs agences vers leurs clients via leurs services en ligne et qui les font payer ce self-service (3,5 euros par mois chez LCL…). Ce transfert réduit dans la pratique le besoin de ressources dans les agences et permet de réaliser des économies. Cela les oblige à modifier les services et compétences des équipes dans les agences dont les effectifs ont par ailleurs régulièrement baissé ces dernières années.Le financement participatif est une autre forme de travail non rémunéré qui remplace un travail qui l’est. Il relève d’une approche voisine de transfert du travail : l’intelligence des foules permet de prendre la décision de financer l’amorçage de startups quand des investisseurs en capital ne sont pas à même de prendre ce risque. Et le financement participatif n’a rien à voir avec l’investissement en capital. Les « crowdfunders » d’ Oculus Rift s’en sont plaints lorsque ce dernier a été acquis début 2014 pour $2B par Facebook.Des entreprises traditionnelles ont appris à s’appuyer sur la créativité de leurs clients. C’est le cas de l’approche d’innovation ouverte de LEGO qui est bien documentée . La société qui était en déclin rapide il y a dix ans a été redressée alors même que ses brevets entraient dans le domaine public. Leur approche avait consisté à s’appuyer sur la créativité de ses utilisateurs au lieu de la protection de sa propriété intellectuelle. Ils ont notamment lancé leur version de l’UGC avec Design By Me, devenu un répertoire de modèles . Ils ont aussi adopté les canons du numérique avec leur Digital Designer , un logiciel de modélisation 3D de modèles LEGO.C’est aussi la démarche d’ Air France qui a fait travailler des « focus groups » pour améliorer ses plateaux repas. Dans ce cas de figure, l’entreprise génère plutôt de petite innovations incrémentales, qui ne changent pas trop la donne au niveau marché mais permettent d’améliorer graduellement la satisfaction clients.Ces 10 dernières années, on ne compte plus le nombre de créations de startups et d’initiatives de moyennes et grandes entreprises qui s’appuient sur le modèle du travail gratuit du client. C’en est presque caricatural parfois tellement le procédé est grossier. En tant que consultant, je suis ainsi invité à participer à des groupes de travail par des sociétés privées qui veulent plancher sur tel ou tel sujet. Dans l’ancien temps, on commandait une mission de conseil ou une étude. Maintenant, on fait appel à de petites tranches de temps d’experts sans les rémunérer. Malheureusement, plein de professionnels tombent dans le panneau. Des services d’intermédiation se montent pour mettre en relation les « experts » et les « demandeurs ». Ils proposent du coaching facturé à l’heure voire à la demi-heure dans tout un tas de domaines. Cela conduit à un saucissonnage du travail qui le rend difficilement monétisable à grande échelle par les experts.Le défi de ceux qui veulent faire appel au travail gratuit est que leurs cibles sont très sollicitées et ont un temps disponible limité. Celles qui font un travail de qualité ne souhaitent pas forcément le donner comme cela. Un équilibre se créée entre l’offre et la demande. Le plus souvent, c’est le client ou l’individu qui travaillent gratuitement qui se font massivement empapaouter. On évoque souvent l’intelligence des foules mais dans le cas présent, la foule se fait bien avoir par le système !Dans l’épisode suivant, nous examinons des cas de ratages de ruptures technologiques intervenus dans les industries numériques qui ne dépendaient pas forcément d’un phénomène d’uberisation. Nous tenterons d’identifier comment des relations avec les startups permettent ou pas d’éviter ces déboires.The following two tabs change content below.

Read more

Benjamin Castaldi (« Nouvelle Star ») : « Grâce…

ozap

Alors qu’il prendra demain soir les commandes du premier prime en direct de « Nouvelle Star », Benjamin Castaldi évoque pour puremedias.com son départ de TF1, son arrivée sur D8 et son retour à la tête du télé-crochet.1 partages Partager Tweeter PartagerRetour (plus ou moins) au bercail pour Benjamin Castaldi. Demain soir, l’animateur retrouve en effet son rôle à la tête de « Nouvelle Star », dont il a animé les quatre premières saisons sur M6 avant de quitter la chaîne pour TF1. A cette occasion, il évoque pour puremedias.com son départ à l’époque, un peu abrupt, mais aussi sa décision de quitter « Secret Story », la politique de D8 en termes de visages – et  » l’énorme erreur  » de M6 – ou encore la comparaison avec « The Voice » et l’orientation musicale de « Nouvelle Star ». Propos recueillis par Charles Decant. Commençons par une petite mise au point ! Le 24 juillet dernier, quand la rumeur de votre arrivée sur D8 a fait son apparition, nous vous avons appelé pour la confirmer. Vous nous avez répondu « C’est de l’intox totale »… Bien sûr ! Je vous ai dit ça parce que le 24 juillet, ce n’était pas signé ! Donc la signature avec D8 à proprement parler était de l’intox. Et puis j’étais en plein « Secret Story », je ne voulais pas, quelle que soit l’issue des discussions avec D8, que l’un parasite l’autre. D’autant que « Secret » est un programme qui est surveillé comme du lait sur le feu, et que moins on en dit autour, mieux on se porte sur le programme. Donc j’ai démenti auprès de tous les médias. D’un commun accord avec D8 et TF1 d’ailleurs, on avait acté qu’on ne communiquerait pas avant la fin de « Secret ». Donc vous aviez parlé à TF1 de vos discussions avec D8 ? TF1 n’était pas du tout dans l’ignorance de tout ce qui se passait. J’ai une très bonne relation avec TF1, donc j’ai mené ça en toute transparence avec tout le monde. »Je ne peux pas passer ma vie à présenter ‘Secret Story’ » Cette huitième saison de « Secret Story », on a eu l’impression que vous y alliez un peu à reculons au début… Vous disiez dans la presse que vous n’étiez pas trop sûr de repartir pour une saison supplémentaire… Vous regrettez de l’avoir faite, finalement ? Pas du tout, je pense que c’est une de mes meilleures saisons en termes d’animation. J’ai été plutôt bon je trouve ! J’en ai foiré peut-être une ou deux, mais celle-ci, je l’ai faite à fond la caisse et encore plus quand j’ai signé avec D8, je me suis dit « C’est ta dernière saison ». J’ai toujours adoré ce programme, je l’ai toujours défendu. Il me manquera évidemment profondément, avec les équipes qui le fabriquent et l’adrénaline que ça procure évidemment. Mais j’arrive à un âge où je dois faire des choix, et je ne peux pas passer ma vie à présenter « Secret Story » et ne présenter que ça. Ca va vous faire de la peine, s’il y a une saison 9 de « Secret », de voir quelqu’un d’autre à la barre ? Pas du tout ! Et puis ce n’est pas signé. Mais je n’ai pas de problème avec ça. Ce que je sais, parce que ce sont des formats que je connais tellement bien et que je maîtrise, c’est que je souhaite bon courage à mon successeur ! Pendant ces huit années de « Secret », vous avez eu peur qu’on ne vous propose plus rien d’intéressant ? Ah mais c’est arrivé ! Le grand paradoxe, ce qui a commencé à me faire me poser des questions, c’est que de l’avis même de TF1, j’étais associé à « Secret » et l’image de l’émission faisait que c’était difficile de me mettre sur autre chose. Je me suis enfermé moi-même dans une prison dorée. Il était même question à un moment avec TF1 qu’on me désengage de « Secret » partiellement, en retirant les quotidiennes, pour me mettre sur d’autres choses. Après, il se trouve que « Secret » sans quotidienne, je pense que c’est infaisable… Mais alors que je reprochais à la chaîne de ne pas assez me mettre en avant, elle me programmait parfois 12, 13, voire 16 semaines par an du lundi au samedi. Donc c’est une surexposition. Mais c’est le paradoxe de ce genre de programmes. »Je finirai ce que j’ai commencé, alors qu’on m’en avait empêché » Vous arrivez sur D8 pour reprendre la tête de « Nouvelle Star ». Est-ce que, dans le plaisir de revenir, il y a une part de revanche après votre débarquement très brutal par M6, à quelques semaines de la fin de la saison 4 ? C’est l’ironie du sort, finalement je finirai ce que j’ai commencé, alors qu’on m’en avait empêché. Ca, c’est la première chose. Mais c’est une vengence sur personne, puisque l’émission n’est plus sur M6 et que je n’ai pas de revanche à prendre sur Nicolas de Tavernost ou qui que ce soit. Je suis très content de retrouver le format, je trouve qu’il est bon, que c’est une référence dans le télé-crochet. Effectivement, on a des castings qui sont plus classiques et moins novateurs que « The Voice », mais c’est limite assumé et affirmé. Et sur les lives ? Je pense qu’on est plus fort sur les lives, parce qu’on est plus dans le suivi de peu de candidats et dans une reconnaissance de talents. Pour l’heure, « The Voice » a Kendji, mais nous on a déjà dix ou douze candidats qui sont sortis largement du lot. C’est à la fin de la foire qu’on compte les boeufs ! Encore une fois, sans dire qu’il y a un format meilleur que l’autre, je pense que dans le respect du talent show, on est très bien placé, voire une référence. »Je suis l’une des pires voix off de Paris » Vous aviez une place importante sur les castings lors des premières saisons de « Nouvelle Star ». Là, c’était un peu compliqué, vous n’arrivez que pour les directs. Ca vous a manqué ? Je vais arriver après la première bataille, mais je connais très bien le format. Je vais m’en servir ! Je vais me positionner un peu comme les téléspectateurs, je vais découvrir les candidats en live, ce qui n’était pas le cas auparavant parce que j’avais suivi tous les castings. Mais je ferai ça l’année prochaine, c’est pas grave ! C’est déjà signé pour l’année prochaine ? Non, mais j’espère qu’il y aura une suite ! Ce serait dommage d’arriver sur D8 pour ça et que ça s’arrête ! Ca, je vous confirme ! (Rires) Est-ce qu’il a été question, à un moment, de vous confier la voix off du programme, pour que vous ayez quand même une certaine présence ? Je l’ai déjà fait sur M6, et je suis l’une des pires voix off de Paris. Autant je suis bon sur certains trucs, autant sur ça je suis vraiment nul. »Etre branché, c’est bien, être branchouille, c’est extrêmement dangereux » Les premiers épisodes de cette saison 3 sur D8 enregistrent des audiences qui ne sont pas dingues… Voilà une remarque objective ! Les audiences ne sont pas dingues, mais si on cumule les replays, les vidéos vues, les rediffusions sur D17, on est à un niveau très satisfaisant, et sur les cibles on est un peu au dessus de l’an dernier. Donc pour l’instant, tout va bien. Vos anciens petits camarades Dove Attia, Marianne James, se disent lassés par le programme… Moi j’ai toujours appris à ne pas cracher dans la soupe. Les candidats ont bien changé depuis vos saisons. Vous êtes parti quand la direction musicale de l’émission a changé, avec des candidats plus pointus, tous avec leur guitare… C’est un genre qui vous correspond plus ? J’ai clairement dit que je voulais faire une émission dans un genre plus populaire que ça n’avait été le cas. Je pense que les chansons qu’on chante doivent être des chansons que les gens connaissent chez eux. Si c’est pour faire de la branchouille pour la branchouille, ça n’a pas d’intérêt et c’est même extrêmement dangereux. On ne fait pas de la télévision pour plaire aux gens qui habitent entre la place de la Concorde et la place Charles-de-Gaulle-Etoile. Et là, vous estimez que l’émission est bien positionnée ? Je pense qu’on est bien, et je pense qu’ils en ont pris conscience aussi. Les chanteurs underground aux pieds sales et aux chaussettes trouées n’ont fait qu’un temps. Qu’est-ce que vous pensez du nouveau jury ? J’adore ! Je trouve que ça fonctionne très bien ! Je trouve Elodie formidable. On pouvait imaginer qu’elle serait plus dans la mièvrerie, mais elle sait exactement ce qu’elle est venue chercher et pourquoi elle est là. Yarol Poupaud, j’adore. Quand il ouvre la fenêtre pour dire « Je saute tellement c’est mauvais », j’adore. Dédé, c’est le taulier et Sinclair qui, avec l’arrivée des deux nouveaux, lui qui était très méchant finit par être presque gentil. »TPMP veut dézinguer ‘Nouvelle Star’ ? Très bien ! » « Nouvelle Star » est un très gros programme de D8, qui a reçu très peu de soutien de l’autre très gros programme de D8, « Touche pas à mon poste »… C’est une fausse polémique. D8 assume clairement d’avoir un programme qui dézingue tous les programmes, y compris ceux de sa chaîne. Après… Vous dire que ça me fait plaisir, la vérité est non. Mais c’est la force de « Touche pas à mon poste ». Ils ont envie de dézinguer « Nouvelle Star ». Ils le font, très bien, ce n’est pas très grave. Il y a le dézingage d’une part, et l’absence de promo d’autre part… Il a fait enlever le décompte pour l’émission du soir dans son émission… Ca ne trompera personne, voilà… Il a fait enlever le compteur… Je pense que si Cyril fait ça, c’est maladroit. Après, il le fait, tant mieux pour lui ! Mais au bout d’un moment, ça va se voir. Autant je comprends que chacun dise ce qu’il pense. Mais c’est maladroit et ça ne ressemble pas à ce que je pense de Cyril. Quand vous avez négocié avec D8, vous avez demandé autre chose que « Nouvelle Star » ? J’ai dit que je venais pour « Nouvelle Star » mais qu’il fallait clairement qu’il n’y ait pas que ça. Maintenant, vous connaissez la télévision, on est bien incapable de savoir ce qu’on fera dans six mois. Les engagements sont pris, mais ce que ça sera, je ne sais pas. Donc vous ne faites rien à part « Nouvelle Star » ? A priori, non. Sauf s’il y a une spéciale, quelque chose avec Cyril et Julien Courbet, dans ce cas-là, avec plaisir. »Si on n’a pas de figures, les formats se cassent la figure ! » Vous avez fait du jeu, du télé-crochet, de la télé-réalité… Il y a d’autres genres que vous souhaiteriez explorer ? Explorer, non, mais j’ai très envie de refaire du jeu ! Et je pense que D8 est largement en mesure de m’offrir du jeu. On a pas mal accusé D8 de proposer du réchauffé avec les retours de « Nouvelle Star », du « Maillon faible », « A prendre ou à laisser » et même « Touche pas à mon poste ». Est-ce que c’était la première phase nécessaire du développement d’une nouvelle chaîne ? Je pense que D8 a déjà remis les choses au clair en disant que la chaîne avait besoin de visages emblématiques. Etienne Mougeotte disait « TF1, c’est des figures ». Il se trouve qu’Ara Aprikian vient de TF1 et je pense qu’il a retenu la leçon. Quand Mougeotte était à la tête de TF1, il disait « TF1, c’est Arthur, c’est Dechavanne, c’est Carole Rousseau, c’est Stéphane Bern, c’est Benjamin Castaldi, c’est Flavie Flament… ». Et je pense qu’une chaîne de télévision, contrairement à ce que pensent certains, c’est des figures. Quand on voit la descente aux enfers de M6, ça prouve bien qu’ils se sont complètement mis le doigt dans l’oeil. Une chaîne ne peut pas reposer que sur des formats. Si on n’a pas de figure, les formats se cassent la figure… Ils n’ont plus d’animateurs, ils ont des experts maintenant, sur M6… C’est ça ! (Rires) Eh bien écoutez, tant mieux pour eux ! Mais je pense que c’est une erreur. Il faut arrêter de dire des conneries ! C’est une énorme connerie ! Tout ça parce qu’ils ont peur que l’animateur leur vole la vedette. Il faut être complètement teubé pour penser ça. Vous allez rester combien de temps « Benjamin Castaldi de TF1″, selon vous ? Ca va aller assez vite, je pense. Quand j’ai quitté M6, ça a été très rapide. Et la TNT le prouve : la plus-value d’un animateur connu, en tout cas en TNT, peut-être moins en hertzien, semble être l’assurance de faire venir certains curieux. Mais heureusement ! C’est rassurant pour notre métier. Je préfère ça qu’on me jette des cailloux ! Quand je suis parti faire une émission sur Gulli, on m’a traité de fou et au final on a fait un million de téléspectateurs. Je ne sais pas si c’est moi ou le format, ou les deux, mais l’ensemble des deux fait quelque chose.

Read more

La nécessaire réconciliation du politique et…

Challenges

Au départ ils sont semblables. Ils rêvent d’un destin hors du commun. Ils ont une idée de leur monde et pensent qu’ils peuvent le rendre conforme à leur idéal. Apporter une vague d’air frais, dans un air épaissi par l’habitude, la résistance au changement, l’aveuglement et la paresse.Entrepreneur et politique, au début, se ressemblent. Révolutionnaires à leur manière, ils refusent les convenances, l’ordre établi. Ils ont un ego. Positif. Une volonté innée et sans limite de reconnaissance. Un désespoir sans cesse recyclé par une machine à optimisme et à créativité. Ils appartiennent à la race de ceux dont le véhicule ne possède pas de marche arrière. Condamnés à avancer. Au départ, ils se ressemblent, puis, insensiblement, un craquement sous leurs pieds, un sillon, une crevasse, se creuse entre eux, les laissant de chaque côté d’un territoire sans frontière commune. Pourquoi ces êtres, dont les vertus et les rêves étaient autant de ciments potentiels finissent par se déchirer? En quoi ce divorce pénalise toute la société?La consanguinité au sein de l’ENALa première raison c’est que l’entrepreneur créé. Chaque jour se construit devant un lui un édifice, dont la taille varie selon son ambition. Un édifice qui ne le déçoit jamais, car il est proportionnel à ses rêves.Le politique ne créé rien. Cette absence de force créatrice pourrait être compensée par le renouvellement des idées, la vision d’une nation. Mais il y a bien longtemps qu’un homme politique ne nous ait offert une réflexion sur le monde. Le politique ne construit pas son édifice, il se fond dans celui des autres. Rapidement il trouve ce monde si lourd à réformer, que s’y faire une place, lui tient de seule ambition.La seconde raison est la consanguinité. La loi réprime les familles consanguines. Sauf en politique ! La mère s’appelle l’ENA. Le père, le goût du pouvoir, et la volonté de le poursuivre comme un but en soi. Les meilleurs élèves sont programmés pour s’accrocher à chaque dorure de la République. Il faut que ses enfants se ressemblent et qu’ils pensent unique.Le pouvoir est pour eux. L’envie pour leurs sujets. Nous n’avons pas, en 1789, tué les privilèges, nous leur avons donné un autre visage. Cette pièce à l’air vicié, serait irrespirable pour le commun des mortels, mais pas pour ces enfants-soldats dotés d’un filtre qui les préserve de l’air extérieur. Notre pays est dirigé par une caste qui ne connaît plus rien de notre vie. A la différence des entrepreneurs.Mais c’est surtout sur le terrain de la mixité et de la diversité que le politique perd pied sur l’entrepreneur et stagne en queue de peloton. L’entrepreneur vit la diversité au quotidien. Il reste parfois sourd à l’équité homme/femme, à l’ouverture aux origines. Mais s’il peut être borgne, il voit bien mieux que son aveugle « collègue » politique. Réduire et renouveler la classe politiqueDès lors, face à cette guerre réactionnaire imprimée par un égoïsme crasse et marquée au fer rouge du refus du changement, pouvons-nous encore espérer ? Les hommes, le changement. Maintenant.On ne change pas les hommes, quand les mauvaises habitudes leur tiennent lieu de nature. Les politiques, qui hantent le pays, depuis 30 ans, ont une capacité hallucinante au rebond. Un ballon de basket couvert de l’immunité parlementaire, dont les rebonds multiples sont empreints de mille contradictions qui ne le gênent en rien.Ces hommes ont bâtit ce système et permis son pourrissement. Ils savent que la réforme mettrait leur turpitude en lumière. Ils savent pourtant que la réforme est nécessaire, que la société fonctionnerait mieux. Ils en sont d’autant plus coupables.Il faut donc les changer. Nous ne pouvons avoir en 2017, des présidents issus de cette culpabilité là. Le meilleur moyen est d’interdire, non pas le cumul des mandats, mais le nombre de mandats dans le temps.Et les jeunes politiques? Les plus jeunes ont une couche de poussière moins épaisse. Certes. Mais l’épaisseur, passé un certain niveau, ne laisse passer ni lumière, ni bruit. Peu sont novateurs, prêts à de réelles réformes. Leur âge n’est pas une garantie d’audace.Faites rentrer les divers, les autres. Il faut donc renouveler. Pour faire rentrer un monde différent dans les wagons de la République, il faut faire de la place dans les wagons disponibles. Tout en réduisant le nombre de ceux-ci. Il faut redonner au libéralisme la capacité d’être la troisième voie. Il faut réduire le nombre de nos élus. Ils se concentreront alors sur les tâches essentielles, celles pour lesquelles ils sont choisis.Moins nombreux, concentrés, ils auront une vie parlementaire utile. Pour faciliter ce renouvellement, c’est simple. Les lois stupidement votées depuis 30 ans ont mis le senior à la porte de la société. Alors appliquons à ceux qui les votent, le même principe. À 62 ans, en retraite !La dernière mesure consiste donc à imposer la société civile. Les acteurs économiques. Il faut inventer le « congé de représentation nationale » permettant à un citoyen de quitter provisoirement son emploi, qu’il retrouvera à la sortie, pour exercer 2 mandats. Au delà il perdra son droit au retour.Rafraîchir la haute administration Réduire le pouvoir de Bercy. Et donc réduire la puissance de ses directeurs centraux. Imposer aux grandes directions d’être autant dirigées par des personnes issues de la sainte ENA que de l’enfer ordinaire (écoles, universités). Afin que ceux « issus de la botte » ne nous tiennent plus au bout des leurs. Interdire de conserver leur statut quand ils pantouflent. Interdire la systématisation de leur nomination dans les entreprises contrôlées par l’Etat. Rapprocher le politique de l’économiqueEnfin, rendre des comptes. Si les mesures adoptées par le politique sont contrariées systématiquement par des fonctionnaires qui estiment « non légitimes » les autorités politiques, alors, soit le politique ne sert à rien, soit le fonctionnaire devient notre gouvernant. L’administration est le serviteur de l’Etat, non le maître. Il faut rétablir l’ordre. Rapprocher les mondes.Notre problème principal, ce ne sont pas les impôts, les charges, le code du travail, ce que nous rabâche le patronat. Ces mesures seront utiles quand on aura changé les boeufs avant de réparer la charrue. Les boeufs ce sont ces corporatismes entrés en résistance face aux réformes. Urssaf, inspection du travail, Prud’hommes. N’est il pas temps que ces organismes trouvent un rôle positif dans le fonctionnement de la société ?Il faut donc qu’une large partie de ces administrations se transforme en conseils, en accompagnateurs. Ainsi pacifiée, la relation entreprise/administration trouverait une nouvelle dimension, propre à faciliter un dialogue et une compréhension qui profitera à la croissance.La compréhension réciproque ainsi créée s’appelle la « culture ». Une culture qui constitue le terreau indispensable à une plantation réussie. Cette plantation ce sont les mesures à prendre. Pas de changement de terreau (culture) pas de plantation (les mesures).Changer le code du travail est inutile tant que ceux qui l’interprètent sont d’une partialité à géométrie non variable. Toujours orientée vers la perte de l’employeur. L’interprétation est plus forte que la Loi. C’est l’interprète qu’il faut changer pas le compositeur.Faire reculer la folie normative et législative. Une des rares choses intéressantes dans la campagne de 2012 de Sarkozy, c’était la proposition de supprimer deux normes pour l’arrivée d’une nouvelle. Un politique admettait enfin qu’on était allé trop loin. La liberté en France est devenue un leurre pour une société que la surprotection a rendu presbyte. Où est la liberté quand la relation directe entre un entrepreneur et un salarié est présupposée faussée et donc interdite, et que la confiance, ne peut plus servir de base aux rapports humains ? Où est la confiance quand les dérives d’une minorité entraînent l’adoption de textes régissant la majorité ?Créer l’impensable et la société de confianceRéfléchissons à la société que nous avons fabriquée par erreur. Une société de la défiance. Et tentons de recréer une société de la confiance. Tentons l’impensable.Impensable n°1 :  Dans une société tout commence par l’éducation. Ce n’est pas aux rectorats de faire la loi. Ni aux élèves. Mais à la société. L’administration pléthorique qui entoure les professeurs (ratio inégalé en Europe), n’a pour seul objectif que de justifier sa propre existence. Pendant que nos professeurs n’apprennent jamais à apprendre. Pendant que nos professeurs sont maintenus à l’écart de la révolution numérique. Réduisons le rectorat de 35% au moins, et affectons l’argent économisé à l’équipement, à l’encadrement des zones sensibles et à la récompense de la réussite.Impensable N°2 : Réformons le dialogue social. Incapable d’être datée même au carbone 14, la bêtise de nos représentants syndicaux entraîne le pays dans un combat d’un autre temps, au détriment des entreprises et des salariés. Les opposant en permanence. Remettons tout à plat. Donnons aux français des représentants du 21ème. Imposons un financement lié à leur représentation. Un système de formation qui ne permettra plus les financements occultes. Supprimons tous ces organismes « divers et avariés » qui « pompent » les entreprises sans aucun bénéfice pour quiconque sauf pour ceux qui les dirigent.Impensable N°3 : Remettre l’administration à sa place. Lui demander des comptes. Mesurer son activité.Impensable n°4 : Réduire ou supprimer des centaines d’organismes inutiles. Y compris ceux où se fait un travail utile et de qualité. Leurs salaires et indemnités sont simplement indécents.Impensable n°5 : Supprimer les réglementations surprotégeant ceux qui sont considérés comme les plus faibles : Code du travail, droit du logement, bail commercial, etc. Analyser les résultats, après un pilote de deux années.  Vérifier si le fait de pouvoir licencier, incitera à l’embauche. Vérifier si le fait de pouvoir sortir facilement un locataire qui ne paie pas permet de fluidifier l’accès au logement. Créer un contrat unique. Supprimer le statut cadre/non cadre, hérésie quasi unique en Europe. Repousser à 250 personnes le seuil de déclenchement des obligations qui interviennent à 50 personnes.Si nous faisions l’impensable, l’univers du possible serait à nouveau à portée de main. Cette France là, chacun aimera y trouver sa place et souhaitera la défendre, en faire une fierté, et un tremplin pour la génération qui la suivra.Cette France serait alors capable d’assumer son modèle social, que tant nous envient. Non plus au bénéfice de quelques uns et au prix d’une dette pour tous. Et plus au prix du sacrifice des générations à venir. Les générations à venir, ainsi réconciliées avec les précédentes, pourront investir ensemble pour l’avenir d’un pays libéré, serein et ambitieux.Une administration enfin engagée dans la réussite des entreprises Et les PME dans tout cela ? Croyez le ou non, mais toutes ces mesures, qui ne parlent ni de fiscalité, ni de charges sociales ou de pactes qui n’ont de sens que de part le calcul politique qu’ils recèlent, seront plus utiles à notre pays que n’importe quel sparadrap législatif dont la France a le secret.Une France bénéficiant de tous ces atouts, de ces briques culturelles, qui construisent un bastion de la réussite, n’aurait plus alors qu’à tirer les conclusions qui s’imposent :L’Etat recentré sur ses compétences essentielles, coûtera moins cher. Ce qui aura une conséquence immédiate sur la fiscalité.  Le syndicalisme revisité entraînera une dynamique des entreprises qui profitera rapidement à tous, salariés et entrepreneurs, en assurant la participation des salariés aux bénéfices de leurs entreprises.L’administration recentrée sur son rôle de facilitateur, cessera d’être un frein à la réussite des entreprises et n’aura à sanctionner que les « déviants ».Le politique, en nombre réduit, concentré sur l’essentiel et « castré » de sa volonté réglementaire inflationniste, ouvert à une promotion diversifiée, passera plus de temps à s’assurer de son efficacité.L’éducation contribuera à changer le regard des individus, de nos enfants, sur le monde économique qui les entoure et produira des ambitieux, que cette ambition soit issue d’une formation technique et manuelle, ou d’un parcours académique plus élitiste.Les générations réconciliées et positivement « condamnées » à assurer le succès des PME, seront le carburant de notre usine à ETI, que nous produirons par centaines pour dépasser tous nos voisins en moins de 10 ans.Nos régions moins nombreuses, nos départements supprimés, permettront notamment, de concentrer sur les meilleurs entrepreneurs, commerçants et artisans, des aides auparavant saupoudrées.Nos acteurs, nettoyés d’empreinte idéologique, pour n’être guidés que par l’essentiel, seront ainsi enclins à mettre en place les mesures susceptibles d’attirer en France l’argent et les talents dont nous avons besoin.Renverser les bénéficiaires du système actuel par le voteNéanmoins il faudra des mesures pour que nos PME deviennent, vite, des ETI. Débarrassées des contraintes de branche, pensées pour les grands groupes, via un syndicalisme dépassé, elles pourront prospérer et le faire sur un terreau adapté à leur environnement et non à celui des salons parisiens.Face à l’enjeu, le problème de fonds reste que nous devons demander à ceux qui bénéficient du système, de se réformer. Ils sont juges et parties. Je les voudrais « parti » et plus jamais juges. Il faut donc que monte en France une force qui les y contraindra. Cette force est à portée de vote. A portée de notre désespoir positif, puisque nous en faisons une force au service du vrai changement. Cette force, c’est à tous ceux qui croient encore en la France, et y croient assez fort pour préférer l’action aux lamentations, qu’il appartient d’agir. A nous, entrepreneurs, de lancer le mouvement, sans le confisquer, afin d’éviter de ne créer un corporatisme supplémentaire.Un entrepreneur et une bonne idée ne sont que le début d’une belle histoire, qui ne s’écrit qu’au pluriel. Ceux qui pourront animer ces mouvements devront le comprendre et avoir autant de considération pour la société que pour les sociétés, pour la réussite du pays que pour celle de ses entreprises. Il faut apprendre à parler France. Une France libérale et respectueuse, une France libérée à l’heure où être libéral semble, enfin, être redevenu convenable. 

Read more

La nouvelle arme des patrons : la « Light…

Agora Vox

Et voilà, ça vient de débarquer dans l’entreprise d’un des amis, qui en est resté tout coi. Sur le cul, le mec. Un jour, son (tout nouveau) patron a déboulé dans la messagerie interne de l’entreprise en produisant un texte censé résumer ses nouvelles méthodes de management. A nouvel arrivant, nouvelle charte de commandement, c’est bien connu ! Et comme dans l’entreprise industrielle de mon pote on va vendre un peu plus loin qu’à Hazebrouck (en Chine, en réalité) ça parle de façon plutôt… guerrière. Ah, ces chinetoques, faut se les farcir, avec leurs larges sourires et leurs contrats jamais signés malgré vingt réunions, trois restaurants, leur bière infecte, leurs courbettes et la visite express de l’usine nettoyée la veille à neuf pour l’occasion. Enfin c’est comme ça que mon pote me les décrit (rassurez-vous il n’est en rien raciste, seulement un peu excédé parfois par le caractère faux-cul de certaines démarches commerciales qui s’étirent pendant des semaines pour rien). Et son patron, qui semble être aussi à bout que lui, a décidé de prendre le dragon par les cornes, à lire sa prose. Car comme plan d’attaque industriel, voilà-t-y pas qu’il leur balance, dans l’entreprise le coup du plan de la  « Light footprint strategy » . Pour ceux à qui ça ne dit rien, sachez que c’est tout bonnement un concept militaire, pondu par le très célèbre US Army War College pour tenter d’expliquer comment faire la guerre moderne. Un concept qu’aurait fait sien Barack Obama, paraît-il… dont les réussites ses derniers temps en matière de conflits laissent pourtant plutôt circonspect… aurait-on affaire à un énième concept foireux ? Vérifions donc ! Un petit rappel historique bienvenu, tout d’abord : « selon les époques, ce sont les militaires qui donnent l’exemple aux managers, ou les pratiques entrepreneuriales qui servent de modèles aux armées. Au lendemain de la Seconde Guerre mondiale, la recherche opérationnelle inventée dans l’US Army est déployée dans l’industrie. Mais l’élève finit par dépasser le maître : en 1961, c’est un homme d’entreprise, le PDG de Ford, symbole de l’excellence managériale, qui est appelé par le président Kennedy au gouvernement pour donner un nouveau souffle à l’armée américaine. aujourd’hui, les officiers influencent à nouveau les managers » résume fort bien France KPMG( Décryptages : c’est un cabinet d’experts comptables !). Ce retour de la pensée militaire en entreprise, ça ne sent pas très bon, à vrai dire, avec au dehors de ces mêmes entreprises une montée des pensées nauséabondes ayant conduites à la seconde guerre mondiale. C’est hélas dans l’air du temps, et c’est un concept profondément vicié, appartenant à celui de la militarisation progressive des esprits (méfiance en effet, ça commence très jeune, avec GI-JOE, à droite un « embedded journalist » en jouet !), dont il faudrait se méfier davantage. Remarquez en ce moment, tout sert aux  » marketeurs  » pour placer leur camelote : ici, je vous ai trouvé une suisse qui a déclaré « qu’Emile Zola avait su déceler, avant l’heure, toutes les ficelles du marketin g » rien qu’avec un extrait « d’Au bonheur des dames » !Voilà en tout cas aujourd’hui notre patron new style (à défaut d’être « new age »), convaincu du concept résumé en France par le vocable VICA (c’est une « dragée » VUCA en américain, promue par le gourou du marketing John Sullivan  : pour Volatility, Uncertainty, Complexity, Ambiguity). Voilà qui devrait plaire aussi à Pierre Gattaz à vrai dire, tant ce concept fumeux renforce l’omniprésence d’une direction la plus restreinte possible, face à la masse d’employés qui ne voient plus rien de ce qui se passe dans l’entreprise, réduits à l’état de drones téléguidés par leur encadrement. Avec le V pour Volatilité (ce doit être pour les bénéfices de l’entreprise, pense-t-on au départ), I pour Incertitude (celle de l’augmentation des salaires à coup sûr), C pour Complexité (dans une entreprise où le Powerpoint exerce une certaine tyrannie – mon pote m’en a décrit certains bien cotons- c’est tout ce qu’il y a de plus normal), A pour Ambiguïté (le patron nouveau est peut-être un Conchita Wurst qui s’ignore, ou un Pierre Gattaz en bas résilles, qui sait). Bref, un concept de merde qui n’a rien à voir avec la vie de l’entreprise mais que le patron nouveau qui se prend pour un nouveau croisé Obamesque allant bouter les islamistes dehors de Syrie avec toute la mollesse nécessaire, a pris à son compte comme parole d’évangile. Le sot. John Sullivan, son gourou se prétend être le  » Michael Jordan du recrutement »  : c’est dire le niveau !Faut dire que le dénommé Sullivan, le gourou qui a un avis sur tout ce qui se passe dans l’entreprise, plairait énormément à Yvon Gattaz… voici ce qu’il affime en effet dans un de ce articles sur « comment repérer un employé qui a envie de partir »… avec son exposé sur le flicage interne (de l’usage du net) et la délation au sein de son entreprise de « rêve » qui laisse pantois : « - Identifier le  »gossip » (alias le super-connaisseur) qui semble connaître tout ce passe dans le bureau et lui demander de vous informer quand il soupçonne qu’un employé clé est à la recherche. – Leur meilleur ami au travail et les recruteurs de votre propre entreprise sont également susceptibles de savoir qui est à la recherche activement (d’un emploi). – Les gestionnaires doivent aussi réaliser qu’il ya une forte probabilité que les employés qui ont récemment augmenté leur visibilité dans les blogs d’écriture, ou font des vidéos pédagogiques sur YouTube ou parlent soudainement lors de conférences le font pour attirer les recruteurs. – Les absences fréquentes et en particulier ceux qui sont absents pour la moitié d’une journée et le vendredi devraient être notés comme des indicateurs possibles que quelqu’un est en entrevue ». L’homme de l’art à l’esprit de surveillant de prison ajoutant un critère à ce flicage immonde montré en exemple : « - Et enfin être conscient que le n°1 de la cause de la rotation du personnel est souvent un mauvais gestionnaire, il faut donc bien parfois constater que vous pourriez être la raison la plus percutante pour laquelle vos employés vous quittent ». Ça ne lui coûte rien de lui dire, à Sullivan. Il ne bosse pas dans l’entreprise qu’il audite…Mais laissons-le d’abord présenter en personne son plan d’attaque à notre patron Sullivanesque : « cette doctrine se développe autour de trois armes principales : les cyber-attaques, les drones et les forces spéciales. C’est la combinaison de ces trois armes qui constitue le socle de la Light Footprint Strategy qu’il n’est même pas utile de traduire en français tant son sens est évident : frapper de façon efficace en laissant le moins d’empreinte possible sur le théâtre d’opération, ne pas immobiliser sur le terrain des forces inutiles et exposées, préserver les vies humaines et l’argent du contribuable sans diminuer la pression sur l’ennemi, utiliser au maximum l’effet de levier de la technologies en restant en tête de la course, jouer de l’effet de surprise et de l’excellence opérationnelle… » Fini donc le patron ratiboiseur d’entreprise, l’Attila des syndicats, la teigne des cadres sups : le patron moderne agirait donc avec plus de « doigté » que ses prédécesseurs (je ne précise pas à ce stade l’usage exact de son ou ses doigts, ni leur emplacement, restons polis). En gros, comme le résume mon pote, il préférera envoyer un jeune commercial jouer les kamikazes en Chine, plutôt que ses meilleurs cadres en espérant le voir rentrer vivant… mais avec un contrat, sinon c’est la porte (attention il n’a jamais été question de sombrer dans le social, Gattaz y veillle !). Ou en espérant qu’il ne passe pas à l’ennemi, comme cet ami de mon ami, qui lassé par son ancien patron genre « Heavy Footprint Without Strategy » (un HFWS, dans le jardon industriel, la méthode scaphandrier aux pieds de plomb), il l’avait laissé en plan, son patron, et s’était installé en Chine même et lui avait fait un superbe bras d’honneur, à son Gattaz personnel (genre BigFoot, le patron, question intellect, pas question empreinte pédestre laissée au pays des femmes à petits pieds).Adapté à l’entreprise, le dragé VICA donnerait en effet ceci : « concernant le contexte général dans lequel opèrent les entreprises aujourd’hui, on peut fort bien lui appliquer la grille de lecture VICA : Volatilité maximum (crise financière ininterrompue depuis 2008, remise en cause de la notation des Etats en apparence les plus puissants comme les Etats-Unis ou la plupart des pays de l’Union européenne, soubresauts de l’industrie bancaire…). Incertitude générale sur l’évolution de la conjoncture, la résolution de la crise de l’euro, la façon dont Barack Obama va franchir le « mur de la dette ». Complexité rare du champ dans lequel évoluent les entreprises, liées aux évolutions technologiques, à la sophistication des techniques financières, à la multiplication des acteurs, aux enjeux énergétiques, à la concurrence des pays émergents. Ambiguïté des rapports entre l’entreprise et la société, entre l’entreprise et le monde politique. » Bref, un joli baratin pour expliquer que le monde industriel chinois, c’est à ses propres poumons qu’on s’aperçoit de son existence : c’est plus qu’opaque, à Pékin… comme ailleurs. Dans un monde où les banques se renflouent, il est vrai, grâce au lessivage de l’argent sale, on voudrait avoir les idées propres et claires ? Laissez moi donc sourire ! C’est le bordel économique qui nous environne comme un smog pesant : quand vous voyez les sommes astronomiques qu’a engrangées Madoff, vous vous dites que la Grèce s’explique facilement : comment a-t-on pu prêter autant à un tel pays où la corruption était reine depuis des décennies ? On savait très bien dans quelles poches devaient partir les liasses ! Et comment des patrons d’entreprises n’ont-ils pas pu percevoir ce qu’était un système pyramidal, chez Madoff, eux qui étaient placés à la tête de leur propre entreprise ?Mais nos patrons new style ont d’autres interprétations sous leurs maroquins à signer les contrats plus vite que Mr Demaesmaker : « dans ce contexte, la maîtrise de l’information est clé, les systèmes d’information constituent le coeur de l’entreprise, les concepts de Big Data et de Smart Data s’imposent peu à peu : c’est le terrain de jeu de la cyber guerre, la capacité de disposer de l’information opérationnelle au moment où elle est décisive, mais aussi de protéger son propre « coeur » des curiosités adverses ». Autre joli baratin des embarqués sur la célèbre comète Cloud : quelques mots faisant initiés aux arcanes informatiques (Big Data ça parle plus que Big Foot, mais Smart Data ça fait carte grise de petite voiture quand même, je trouve), et le tour serait joué. Le métalangage ronflant a toujours plu en haut lieu : avant on disait « serveur distant ». Personne n’avait accroché. Trop… lointain comme concept. Repeint en « Nuage » (Cloud) voilà qu’il fait rêver. Et qu’on le présente comme neuf alors qu’il a toujours existé ! Faudrait quand même leur dire, à ces patrons qui s’y croient qu’ils auront beau se sentir protégés par un Cloud, ce gros nuage sur lequel ils se sont (déjà) mieux posés que Philae, que leurs cadres et leurs employés en dessous d’eux ne sont pas tombés de la dernière pluie (celle qui sort du nuage !), et qu’ils savent très bien que sous couvert de « data » c’est aussi leur vie privée qui sera mise en fiches, au cas où… au cas où il faudrait désigner un plus vieux kamikaze, pour l’envoyer loin vers l’Orient, celui-là sans espoir de retour, étant donné son âge. Le smog de Pékin aura vite raison de ses poumons attaqués par plus de trente ans de tabagisme lié au stress d’entreprise. Remarquez, s’il se perd, son GPS de téléphone d’entreprise permettra vite de savoir dans quel bar (montant ?) il a échoué.Et il y a pire encore dans cette comparaison immonde entre société industrielle et escadron de tueurs de chars ou d’escadrilles de chasseurs en piqué. « Pour lutter contre la volatilité et l’incertitude, mieux vaut ne pas immobiliser trop de ressources sur le terrain. Les drones sont l’incarnation du fait qu’un investissement bien calibré, sans risque démesuré pour celui qui le met en oeuvre, peut procurer un avantage stratégique supérieur à celui d’un avion de chasse à un coût beaucoup moindre (le F35 de nouvelle génération va coûter environ 130 millions de dollars pièce, un drone armé de type Reaper en coûte 53 millions…). Quant aux forces spéciales, elles témoignent du fait qu’un petit groupe de femmes et d’hommes décidés, compétents, motivés et solidaires, peut faire mieux qu’une armée toute entière ».  Dans ce parallèle militaire foireux, j’appellerai plutôt les personnes concernées du nom de très bons auxiliaires d’information au sein des armées : les pigeons. Des « forces spéciales » élevées au grain et envoyées en éclaireur… mais sans matériel adéquat, sans carte bleue d’entreprise et sans connaissances sur le terrain : des pigeons new style, uniquement chargés de roucouler dans les bureaux du futur client, pour ramener un peu de « Data » mais pas aux frais de la princesse (Gattaz veille à toutes les dépenses). Des pigeons-espions, uniquement chargés d’aller scruter les failles des mangeoires d’en face. Avec comme « Special Op », par exemple de planter une caméra IP dans le couloir à photocopieuse pour savoir qui lutine à chaque passage la petite jeunette repérée lors de l’expédition précédente, celle où le jeune kamikaze précédent n’est pas revenu (il est resté sur place et vit désormais sous un nom d’emprunt avec la précédente photocopiste aux yeux en amandes, dirigeant ensemble un pâtisserie faisant des croissants… français). Avec un tel « Data », c’est sûr, vous tenez votre futur client par les … Bref, pas la peine d’aller chercher des correspondances militaires grotesques à ce jeu de con d’entreprises se reniflant le train arrière avant de conclure ou non par un mariage (pas toujours gai, n’en déplaise à Nicolas Sarkozy). Un « petit groupe », style « commando » ça veut dire quelques happy fews surpayés qui montreront à leur collègue leur Rollex ou arriveront sur le parking en faisant crisser les pneus de leur Auto-Union (ils détestent qu’on parle ainsi de leur dernière Audi coupé sport !). Des commerciaux, quoi, toujours attirés par les mêmes hochets. Marchant aussi façon commando, en roulant des mécaniques par pack de six (ils sont comme les bières empaquetés dans leur « petit groupe soudé »). Groupe dont le souci principal est le prochain modèle de bagnole à acheter, et pas de développer l’entreprise ! Les Navy Seals n’en ont rien à cirer des autres corps d’armée qu’ils méprisent copieusement (on leur rend bien, remarquez). Eux sont soudés, mais qu’entre eux : la soudure ne coulera donc pas plus loin dans l’entreprise. Ce qui se traduit aussi par cette vision enjôleuse chez ceux persuadés du bien fondé du concept :  » les forces spéciales militaires deviennent, dans l’entreprise, des équipes qui vont explorer le futur de l’entreprise, ses prochains modèles d’affaires, ses prochaines relations avec les clients, les prochaines expériences qu’elle va proposer. Ces équipages ne seront pas organisés par des structures hiérarchiques classiques, ils fonctionneront en réseau, en « reliance », avec des leaders »… on vient là de redécouvrir le monde des chouchous !Ou celui des compromissions ou des coteries patronales : le meilleur moyen de transformer une entreprise…en zoo, avec des perruches, des autruches, des otaries (pour faire tourner les projets sur leur nez), ou des singes savants pour distraire l’assistance ou flatter la direction ! C’est la cour du roi-patron, revisitée (celle du film « Ridicule »), ne manquent que les perruques). De méchantes langues à l’esprit tordu (ou de vieux loups de mer d’entreprise ayant traversé toutes les tempêtes) traduisant vite et plus prosaïquement  » reliance avec un leader » par… coucherie. Mais bon. Au temps de l’égalité des sexes (il paraîtrait que ce serait enfin débarqué en entreprise) et du parler correct, on n’ose même plus parler de l’usage du canapé, et encore moins de… promotion, par les temps qui courent de restrictions à tous les étages.Un concept foireux et dangereux, dont plusieurs points sont discutables : on a relevé ici candidement un certain « 4eme » du nom, qui vaut son pesant de mouron en effet ; écoutez bien : « 4e) La centralisation et la décentralisation extrêmes, car ce modèle stratégique et d’organisation suppose une unité forte de commandement (le Président des Etats-Unis en personne dans la « war room » lors de l’assaut des forces spéciales contre la maison où se cachait Ben Laden…), mais une liberté d’appréciation et de décision laissée aux forces opérationnelles ». Bref, une bonne vieille direction d’apparence paternaliste dissimulant une poigne de fer  : « allez-y, je vous couvre ». Et juste après :  » Ah, oui, mais là je ne pouvais pas le faire, car ce n’était pas sur le bon champ de bataille »… Même ça, Gattaz sait le faire sans en référer bêtement à Obama en train de diriger à distance l’hélicoptère débarquant sur les genoux de Ben Laden (ce doit être de ça dont il est mort : ça beau être en carbone, c’est lourd, ces putains d’hélicos). Un prétexte, pour renforcer encore le manque de répartition des décisions : une forme de dictature (la facilité), là où il faudrait des décisions collégiales (bien plus difficiles à réaliser, car pour ça il faut aimer le dialogue et écouter les autres). Quant à l’image de la « war room », seuls les imbéciles ne savent pas que c’est une des plus belles images de propagande mensongère depuis des lustres : alors de là à en faire un modèle de gestion d’entreprise !!! Quant aux « décisions personnelles » offertes en entreprises, elles se résument le plus souvent à pouvoir choisir la couleur des stylos de l’open desk où on les a parqués, ces gentils moutons d’entreprise. Ou la liberté de décider dans quel sens mettre le bureau pour ne pas voir le sommet du crâne du collègue dépasser de la cloison. Les plus adroits bénéficiant du meilleur ensoleillement pour parfaire leur bronzage, signe extérieur de leur réussite . Et de n’est pas fini, comme comparaison toujours aussi foireuse ; voici que déboulent les mercenaires à la Blackwater avec l’article suivant :  » 5°) Le recours à des forces externes et à des partenaires locaux en appui sur le terrain d’opération, afin de préserver au maximum l’efficacité opérationnelle. Il peut s’agir de la sous- traitance d’une partie des activités, de partenariats avec des acteurs ou entreprises locales ». Là on a vite traduit : les Blackwaters de la stratégie industrielle au pied léger, on les connaît. Ils ont tous des têtes de roumains, voire de bulgares, payés une poignée de pain (ou de grains, s’ils côtoient les pigeons de tout à l’heure), ou des gens fort ressemblants. Des « partenaires locau x » recrutés dans la rue par un maquignon local, dont les méthodes au fer chaud feraient fuir la CFDT mais ravirait pour sûr la mafia sicilienne, qui possède l’art, il est vrai, d’engager les gens à vie, même si parfois cette dernière est disons… écourtée chez certains. Ne manquent plus que les chaînes et les tenues rayées, mais ça fait un peu voyant au XXIe siècle, et tout le monde n’a pas encore son entreprise située sur une île en face de San Francisco. Même si parfois la Chine qui fabrique les IPhone (chez Foxconn) y ressemble beaucoup, à ces Alcatraz industriels.Car derrière le paravent du nouveau langage, à ce patronat qui vit désormais l’I-Phone rivé à l’oreille, il reste les mêmes méthodes d’un Krupp ou d’un Vickers Armstrong juste avant la déclaration de guerre de 14-18 comme le dit parfaitement le point suivant :  » 6°) La culture du secret, sans lequel l’effet de surprise n’est pas possible, ce qui peut provoquer l’échec total de l’opération. Or les entreprises éprouvent souvent des difficultés à mettre en oeuvre des pratiques et des systèmes qui préservent le secret sur leurs intentions ». C’est sur ce genre de point que l’on constate que ce n’est qu’une feuille de rose pour emballer une belle merde, ce discours pseudo branchouillé. La rétention de savoir a toujours été un pouvoir, et c’est bien de cela dont il s’agît ici. Le but n’est en aucun cas d’aborder l’adversaire en se dissimulant, mais bien de trouver ce prétexte pour dissimuler davantage ses intentions véritables à ses propres employés « oui, mais tu vois, là, coco, je ne peux pas t’expliquer car nous sommes dans des négociations secrètes et je ne peux rien te dire ». Le lendemain, vous savez en effet : c’est vous qu’on vient de mettre dehors. Tout secret en haut lieu dissimule un pouvoir sur des gens, et non uniquement un secret industriel (de moins en moins répandu depuis la circulation de l’information). Le secret et sa culture est le poison de l’entreprise s’il n’est pas partagé au sein de l’entreprise : vous ne pouvez embarquer des gens dans un projet en leur disant  » suivez-moi, je vous dirai rien sur ce qu’on va faire ensemble ». Tout le monde ne s’improvise pas gourou d’entreprise ! Même Steve Jobs expliquait son projet pour convaincre ses troupes, et le secret qui entoure les sorties d’appareils demeure bien connu au sein d’Apple d’où les fuites parfois) avant d’être révélé au dehors !Mais il reste le pompon, de cette pseudo stratégie à la noix et la voici : « 7e) Assumer les dégâts collatéraux, de la même façon que le Pentagone assume le fait que certaines frappes des drones atteignent par erreur des cibles civiles. Dans le cas de l’entreprise, les formes de dommages collatéraux sont nombreuses, et plutôt que de tenter de les empêcher, il faut les assumer et en les limitant au maximum afin qu’ils soient encore acceptables. » Et là, c’est le sommet, quand on sait que ce qu’a pu reconnaître comme dégâts latéraux le Pentagone était « Peanuts » par rapport aux massacres réels effectués. La notion de « dégâts collatéraux  » est une propagande abjecte pour dissimuler des bombardements iniques, fabricant l’autre notion immonde de « guerre propre ». Or il n’y a jamais eu de guerre ainsi faite. En entreprise, transposer ce mensonge consisterait donc à instituer une politique interne du mensonge entretenu.  » Tu as des nouvelles de Stéphane «  ? On ne le voit plus. Ah, ce que je sais, il a fait une grosse connerie et as du refiler sa dém » . Bien entendu, l’homme n’a jamais fait ce genre de chose et a été purement et simplement viré avec pertes, fracas, et sans indemnités «  : un simple « dommage collatéral » « bien géré », voilà ce qu’est une guerre d’entreprise propre, vue par Gattaz et ceux qui se gargarisent de visions militaires pour faire turbiner leurs employés comme de bons petits soldats dociles ! Dans ce concept fumeux, beaucoup de choses ont été oubliées. Parler de « drones » et en faire la comparaison avec des employés envoyés pour aller renifler le client potentiel, mais c’est oublier le blues du gars derrière le drone : celui qui finit par craquer ; comme ça c’est déjà moult fois produit, au fin fond du Nouveau-Mexique dans un container réfrigéré. Celui qui a a force de voir des horreurs, a fini par jeter l’éponge, écoeuré par son propre travail. Qui jouera ce rôle, dans la correspondance à la noix du Light Footprint machin (dans le concept, le drone serait en fait un robot industriel) ? Le contremaître, ou le cadre ; qui auront envoyé au combat une escouade qui aura trimé sang et eau, dimanche compris, pour mettre en marche un bidule mal pensé mais que la direction qui se réserve le « secret » des ses décisions avait décidé seule de fabriquer et de vendre ? Que leur restera-t-il à faire face à l’échec du projet, comme chez Renault ou chez France Telecom ? Se suicider ??? Ou conseiller à ces patrons d’opérette gargarisés par ce concept idiot de relire tout Paul Virilio ?Si la guerre est à donner en exemple en entreprise, c’est mal parti pour ces mêmes entreprises, si l’on choisit les orientations américaines comme exemple. Un programme d’une idiotie sans nom risque de faire basculer l’intégralité de l’US Air Force, qui s’est lancé dans la fabrication d’une enclume volante dont le pilote porte un parpaing sur la tête pour le diriger. Le F-35, programme militaire aéronautique le plus cher de tous les temps qui tourne au fiasco et au désastre un peu plus chaque jour. Le jour où il s’écoulera totalement, je ne donne pas cher de l’intégralité de l’économie US. Il avait été précédé par deux autres, ceux de l’Osprey V-22 et du Raptor F-22, deux gouffres à argent inefficaces que l’on sort parfois en représentation, en prenant bien soin qu’ils ne se fassent pas tirer dessus par des armes légères, ce qu’ils ne supporteraient pas. Les deux chasseurs, F35 et F-22 sont des gouffres à pétrole et des attrape-radars, contrairement à comment on les présente, et des avions incapables de lutter contre des troupes au sol ou des guérillas, alors que toutes les guerres des dernières décennies sont de ce type. L’US Air Force en est au stade où elle doit aller chercher un petit avion existant ailleurs, l’Embraer Super Tucano, le faire ramener par une entreprise privée dotée de pilotes mercenaires pour aller combattre les terroristes en Irak, ceux que les enclumes volantes précédentes n’ont pas réussi à écrabouiller totalement. Bref, l’armée américaine est une gabegie sans nom, qui s’évertue pendant des années à construire des engins improbables, tel le char amphibie ou le transporteur de soldats devenu char d’opérette, pour seulement nourrir une industrie qui tourne en rond sur elle-même. On n’arrête pas ces projets dispendieux pour ne pas fabriquer de chômage en interne, dans le pays, et pour les vendre, on fabrique des guerres à l’extérieur. Et c’est ce marketing inique de la mort que l’on devrait prendre en exemple ??? L’économie industrielle US, ça se résume en fait au « toujours plus » de Pentagon’s War, dont on ne saurait trop visionner l’hilarante saga. On y voit des dirigeants d’une crétinerie sans bornes se monter le chou avec leurs conceptions idiotes et leurs désirs enfantins, qui engagent des milliards de dollars d’investissements… pour rien (enfin pas tout à fait, car tout le système repose sur le versement de copieux pots de vins aux décideurs qu’ils sont). Le cadeau d’entreprise, version new style ? Les versements discrets en Suisse, montrés en exemple ?Militairement, aussi, le concept dissimule quelque chose de dangereux que résume très bien mayakandel le 14 avril 2014 : « Le mot d’ordre du « Light Footprint » est en effet la formation des armées partenaires (« building partner capacity ») : l’accent est sur l es partenariats sécuritaires pour combattre une menace commune, concrètement : former des unités militaires pour combattre des « groupes terroristes » (…) Elle rappelle l’histoire de l’implication américaine en Amérique latine dans les années 1960 et 1970, où Washington a privilégié le même type d’approche dans la lutte contre le communisme à l’époque (avec la CIA), avec les conséquences que l’on sait. Les Etats-Unis sont en train de nouer des partenariats de plus en plus étroitement (et essentiellement) sécuritaires avec la plupart des pays d’Afrique. Avec le risque de se trouver entraînés du soutien sécuritaire au soutien politique, et loin des objectifs affichés en termes de défense des libertés politiques et religieuses et de promotion des institutions démocratiques. Le dilemme est aussi dans le choix entre efficacité à court-terme et objectifs à long-terme. Il a une dimension politique, liée à l’horizon très court terme de nos sociétés, et donc des électeurs et des élus. Le résultat doit être probant et vite ; le problème doit être réglé, ou du moins contenu – containment qui semble être redevenu (c’est cyclique) le mot d’ordre de l’action américaine partout dans le monde. La question déterminante pour Washington semble désormais être : comment protéger les intérêts stratégiques américains sur le continent africain sans imposer une présence militaire préjudiciable sur le long terme ?  » Le LFP n’est qu’une version différente de la mainmise militaire des USA sur l’Amérique du Sud, dans les années 50-60… transposée cette fois à l’Afrique. Question « footprint » on avait vu ce qu’avaient donné les gros sabots de la CIA, avec les assassinats de chefs d’Etats, qui avaient été condamnés par la Commission Church, rare moment de sursaut de la politique US. Des « conseillers » on est vite passé aussi à la guerre, au Viet-Nam… Ça commence aussi par quelques légères empreintes, les guerres qui perdurent … « vite réglé », disait aussi McNamara… ce n’est pas en déguisant leurs avions-espions en avions civils que la trace de leur passage sera plus petite. L’espionnage est là, et il est bien présent, fait par des mercenaires, dont on réfute l’appartenance à une quelconque armée officielle en cas de pépin. Les familles ne bénéficiant pas d’une assurance de l’Etat lors de leur décès. Avant, il y avait la chair à canons, aujourd’hui, on arrête pas le progrès, il y a la chair à avions… en entreprise, ça devient « celui là, mais on ne le connaît pas, il n’a jamais fait partie de la maison  » entendu au téléphone avec derrière le bruit de la broyeuse à documents en train d’écharper son CV et ses dossiers. Les militaires n’ont pas le droit aux états d’âme…Peut-on utiliser un concept guerrier pour diriger des entreprises ? La réponse est à chercher dans ceux qui s’en réclament. On attribue à Barack Obama l’usage de cette idée : or, s’il y a bien un exemple à ne pas suivre, comme fermeté dans la direction, c’est bien lui. Ses hésitations sont répétées, la Syrie en sait quelque chose. C’est aussi un président qui n’a pas gagné une seule guerre, mais en a mal terminé deux, initiées il est vrai par ses prédécesseurs. Il s’est retiré de ses deux pays en laissant derrière lui un indescriptible chaos dont bénéficient aujourd’hui des terroristes islamistes pour répandre la terreur. Le responsable n’a pas su bâtir derrière lui des états stables, et on voudrait en faire un exemple pour les entreprises qui ont le plus besoin de stabilité dans un monde en perpétuel mouvement ! A force de s’adapter, des entreprises ont perdu leur âme et non su vendre à nouveau qu’en la retrouvant. En Afghanistan, ses qualités diplomatiques se sont vite heurtées à un problème de taille qui s’appelle Karzaï et à un autre bien plus grave encore : le pavot. Manifestement, la drogue n’a jamais connu un tel développement que sous la présence américaine : rien n’a été fait pour en endiguer la progression de la l’opium. Pour des raisons qui sont propres avant tout au fer de lance de l’armée US : la CIA. Idem en Amérique du Sud, où la « guerre à la drogue » est un deuxième fiasco patent. On sait qu’en entreprise, pour doper ou motiver les cadres, la coke est tolérée, mais de là à en faire un modèle de comportement, avouez que c’est fort de… poudre à café. C’est sous sa direction étatique aussi qu’une banque, la banque Wachovia, a accepté de payer à l’état fédéral un redressement phénoménal pour ne pas se retrouver en procès pour avoir lavé l’argent sale des cartels mexicains. C’est sous sa présidence qu’un scandale énorme est apparu avec des armes fournies par l’état US ont été retrouvées au mains des trafiquants mexicains. Bref, c’est tout sauf un exemple de réussite de stratégie claire. C’est sous sa direction qu’on a clos le mensonge Ben Laden par un deuxième mensonge hollywoodien : si c’est une réussite, stratégiquement, éthiquement c’est une catastrophe, comme l’a été et l’est encore la campagne d’assassinats ciblés à l’étranger, faite par les fameux drones montrés en exemple, cette fois, au score effarant d’enfants tués en même temps que les cibles visées. La Commission Church de 1975 les avaient interdits. Obama est le jouet du pouvoir réel aux Etats-Unis, comme l’ont été tous ses prédécesseurs. La Heavy Print Strategy, c’est le gouvernement fantôme des industriels de la guerre qui laisse sa trace partout, celle dénoncée dès 1963 par David Wise etThomas B.Ross. Obama n’en est que le décorum, la façade, et en faire le représentant des véritables décideurs une erreur fondamentale. Ou alors, on glorifie un simple exécutant à la place d’un décideur véritable. Obama laisse derrière lui des pays en plein chaos, après avoir pompé tout ce qui avait pu l’être, et en fournissant même quelques mois auparavant des armes neuves, achetées par les gouvernements grugés et aussitôt détruites sur place, faute de compétence pour les entretenir ou les utiliser. Ça ou de vieux chars offerts par un pays tiers et revendus au prix fort après avoir reçu une couche de peinture neuve pour les rendre présentables. On part, mais avec la caisse. C’est une sorte de départ avec retraite chapeau, si on peut dire : et c’est cela aussi qu’on voudrait imiter ? Ce seraient ces méthodes de forban qu’il faudrait citer en exemple ?Car tout cela n’est guère nouveau. Dans le livre de Wiseet Ross, on avait eu déjà la description du « Light FootPrint à la sauce Kennedy (page 387)… Une considération égale doit être accordée aux problèmes qu’engendre le succès d’une opération spéciale. Les États-Unis sont-ils disposés à assumer la pleine responsabilité des conditions économiques et politiques issues d’une révolte soutenue par la C.I.A. et réussie ? Dans les cas comme ceux du Guatemala ou de l’Iran, à quoi sert de balayer un gouvernement pro-communiste si l’on restaure les conditions qui ont permis aux communistes de s’infiltrer dans le gouvernement ? C’est une illusion de penser que les problèmes de la politique étrangère des États-Unis dans un monde compliqué peuvent être résolus par la chirurgie rapide d’une révolution de palais. Les techniciens du renseignement et de l’espionnage, qui sont naturellement enclins à ces solutions activistes, ne devraient jamais être autorisés à prendre une part prépondérante aux délibérations ayant précédé les opérations secrètes. De même qu’ils ne devraient jamais avoir le contrôle exclusif des opérations sur le terrain. Eisenhower et Kennedy ordonnèrent tous deux que l’ambassadeur dans un pays étranger soit chargé de toutes les activités des États-Unis. Il est essentiel que cette suprématie théorique devienne une réalité. Un ambassadeur ne devrait jamais être mis dans la situation d’un William Sebald en Birmanie. S’il doit conserver l’estime et le respect des dirigeants du gouvernement auprès duquel il est accrédité, il faut qu’il soit tenu informé de l’activité clandestine américaine. Si les circonstances imposent une politique secrète en contradiction avec la politique avouée de Washington à l’égard d’un pays donné, il faut que l’ambassadeur en soit averti.  » Déjà, vous le voyez bien, la notion de secret était bannie par les auteurs de cet ouvrage fondamental, qui condamnaient les « light footprints » secrètes de l’époque.Car derrière ce concept « d’empreinte légère » se dissimule en entreprise de bien gros souliers à clous, ceux qui permettent de se passer des gens à grands coups de pompes dans le derrière sans avoir de remords (un militaire, ça meurt en silence, il est vrai, et si on arrivait à refaire ça avec des employés ou des ouvriers au XXIe siècle, comme on l’a fait au XIXeme surtout, le capitalisme pourrait à nouveau pavoiser) : « si elle se confirme, la substitution du modèle Light Footprint à l’organisation matricielle risque-t-elle de contracter l’emploi ? Les pessimistes s’inquiètent de la diminution du nombre de salariés dans les organisations qui adoptent « l’empreinte légère ». Les optimistes constatent que les entreprises Light Footprint catalysent des écosystèmes foisonnants où les emplois tertiaires abondent. » En somme, c’est totalement inadapté à l’industrie et ça ressemble en fait à du management pifométrique de start-up ruant dans tous les sens et finissant soit par décrocher par hasard un contrat, soit se vautrer et disparaître aussi vite qu’elle est apparue dans les catacombes des entreprises mal foutues, dont le manager se rêvait en chef d’escadrille new style, façon patron de Skyrock ou de Free, pour prendre des exemples de pédants notoires (« celui qu’on reconnaît » de loin disait Audiard). Ces fameuses start-up, derniers avatars du capitalisme réussissant à faire travailler jour et nuit de jeunes forces de travail pour un salaire épais comme la viande d’un hamburger de régime, dont on voudrait imposer le style auprès des industries lourdes, quand elles existent encore… Foutaises que tout cela !Le vocabulaire guerrier, on y revient, avec le terme employé pour désigner les patrons des plus grosses entreprises :  » des capitaines d’industrie « , dit-on à leur propos : de là à faire ramper tout le monde… il y a un bon nombre de pas (légers ou non) à faire, et le  » LightFoot Print Strategy  » n’est qu’un concept produisant le même rideau de fumée qu’une attaque au gaz moutarde à Ypres en 1915. Ceux qui y plongent le nez en ressortent gravement… intoxiqués. Voilà qui promet de beaux dégâts au sein des entreprises sui succomberont à ce concept fumeux calqué sur ce qui se résume être un échec militaire probant !les extraits du principe proviennent de cet article :http://www.charlesedouardbouee.com/…on peut lirehttp://www.agoravox.fr/tribune-libr…http://www.agoravox.fr/tribune-libr…Le film obligatoire :http://www.youtube.com/watch?v=f0rc…

Read more

Test de la Sony Xperia Z3 Tablet Compact : la…

Frandroid

En regardant la qualité de fabrication des premières Xperia Tablet, nous étions frustrés de ne pas pouvoir mettre la main sur un modèle plus « portable ». Heureusement, à l’image de l’iPad Mini, Sony a dévoilé un modèle qui passe sous la barre des 10 pouces. Cette Sony Xperia Z3 Tablet Compact a mis tout ses atouts charmes à l’oeuvre pour nous séduire. Et sans vous dévoiler ni les rouages ni la fin de cette histoire très fleur bleue, elle a plutôt réussi son coup. Fiche TechniqueLa Xperia Z3 Tablet Compact, dans son modèle SGP621 et donc compatible 4G, profite de composants très premiums. On y trouve en outre un écran de 8 pouces avec un affichage de 1200 x 1920 pixels (du 1080p) , un processeur Qualcomm  Snapdragon 801 cadencé à 2,5 GHz , 3 Go de mémoire RAM  et une batterie de 4500 mAh . Comme pour ses flagships, Sony a incorporé ses technologies à l’appareil, à l’image de la technologie Triluminos pour l’écran, du mode Stamina pour la batterie, une résistance à l’eau ou des technologies audio pour un son, en théorie, amélioré.ModèleSony Xperia Z3 Tablet Compact LogicielAndroid 4.4.4 Taille d’écran8 poucesTechnologieIPS LCD Triluminos + X-RealityDéfinition1920 x 1200 pixelsRésolution283 pppSoCSnapdragon 801Nombre de coeurs4 coeurs Krait 400Cadence2,5 GHzPuce graphiqueAdreno 330Mémoire RAM3 GoMémoire interne16 GoSupport microSDOuiCaméras8,1 mégapixels, Exmor RS® (arrière) 2,2MP, Exmor R(TM) (avant)Carte SIMNano-SIMBluetoothOui, 4.0GPS – GLONASSOui – OuiNFCOuiWi-Fi802.11a/b/g/n/acRéseauLTE 700/800/850/900/1700/1800/1900/2100/2600 3G 850/900/1700/1900/2100 CapteursAccéléromètre, gyroscope, boussole, baromètreBatterie4500 mAhRésistance à la poussièreOuiRésistance à l’eauOuiDimensions213,3 x 123,6 x 6,4 mmPoids270 grammes Design, finesse, et voluptéSony revient donc cette année avec une tablette « Compact » de 8 pouces au format 16:10 et aux dimensions modestes de 213,3 x 123,6 x 6,4 mm . Testé en blanc – seule la version WiFi 16 Go est commercialisée dans ce coloris -, le modèle est de prime abord vraiment élégant, alors que le design des appareils Sony fait souvent débat. L’allure de cette tablette devrait bien plus faire l’unanimité, si ce n’est sur quelques détails.Xperia Z3 TabletLe premier constat lorsqu’on prend en main cette tablette, c’est sa légèreté. Avec 270 grammes , la Z3 Tablet Compact est largement plus légère qu’un iPad Mini 2 et ses 331 grammes, bien qu’elles ne soient pas faites des mêmes matériaux. Une telle légèreté pour un objet pareil est en tout cas plus qu’appréciable, et cela en facilite d’autant plus l’utilisation. Le deuxième constat que l’on fait, c’est la qualité de construction de cet objet, avec des finitions en métal et simili-métal.6,4 mmIl faut également saluer la finesse de l’appareil ( 6,4 mm ), qui fait aussi bien que la Xperia Z2 Tablet dans ce domaine. En savoir plus : Test de la Sony Xperia Z2 Tablet, tout en légèretéLa bordure simili-métallique qui entoure la tablette, et rompt légèrement avec ce qui se fait sur les smartphones de la firme nippone, est très bien intégrée. Elle épouse parfaitement le reste du plastique, et seule la tranche supérieure semble très légèrement rebondie au-dessus de l’enceinte.La prise en main est donc vraiment bonne, surtout en jeu, puisqu’aucun bouton ou « trou » ne vient heurter nos mains. Elle est agréable au toucher, et même ce dos en plastique semble avoir été travaillé pour être confortable. C’est par contre visuellement que le bât blesse avec une texture qui fait un peu cheap lorsqu’on approche l’oeil. Autre gros défaut cette fois : les traces. Le plastique de la coque arrière – surtout en blanc – prend les traces et absorbe tout ce qui déteint . Un journal gratuit et tout frais du matin pourrait bien laisser un gros titre à l’arrière de votre appareil. Heureusement, la tablette est facilement nettoyable en plus d’être étanche.MicroUSBLorsqu’on a testé une Lenovo Yoga Tablet 2 juste avant, il y a comme un vide. Sur cette dernière, on évoquait la praticité énorme que confère le pied intégré à l’appareil. Ici, on regrette de ne pas avoir un tel outil pour pouvoir poser la tablette devant nous. Les constructeurs devraient réellement se pencher sur des micro-pieds à intégrer aux tablettes, et qui seraient vraiment pratiques pour certains usages multimédias. D’autant qu’il faut débourser quelques dizaines d’euros supplémentaires pour faire l’acquisition d’une cover compatible.Globalement, et malgré quelques défauts, cette Sony Xperia Z3 Tablet Compact est un très bel objet. Elle est à la fois facilement transportable, agréable à prendre en main, et franchement jolie pourvu qu’on la regarde de face. Et ça, c’est aussi certainement dû à un bel écran.  Triluminos, luminosité et fidélitéUn bel écran, effectivement. Mais un des meilleurs sur tablette ? Peut-être pas. Equipé d’une dalle IPS Full HD, et de la technologie Triluminos, on est surpris positivement par la luminosité et les couleurs vives de cet appareil. Des couleurs vives, certes, mais pas saturées, ce qui n’handicape pas lors de l’usage. Lorsqu’on la regarde, la seconde chose frappante concerne les bordures noires de la dalle, qui sont réduites à leur strict minimum. C’est assez impressionnant de voir le soin pris pour les réduire, et cela joue aussi beaucoup sur l’esthétique de la tablette.Il faut savoir qu’en plus de de la technologie Triluminos , on trouve divers modes pour l’affichage, comme X-Reality for Mobile (qui rend les images « lumineuses et vivantes ») et le mode Très Vif (qui fait ressortir les couleurs pour obtenir des images très vives). Si le mode X-Reality est encore justifiable lors de certains usages, le mode Très Vif est à éviter si on souhaite garder nos rétines intactes. Pour se rapprocher le plus possible de la réalité, autant désactiver ces modes et se caler sur l’affichage basique de la tablette.On n’a pu s’empêcher de comparer cet écran à ceux de la Nexus 9 et de la Lenovo Yoga Tablet 2. Le verdict, c’est qu’il est certainement meilleur que ceux de ces produits. Il est déjà le seul à produire un blanc qui ressemble à un blanc, celui de la Lenovo étant très jaune, et celui de la Nexus 9 tirant sur le rose. Quant au noir, il est trop lumineux (et donc pas assez profond) mais a le mérite de ne pas faire ressortir les fuites de luminosité ou des tâches de couleur comme celui affiché par la Nexus 9. Les couleurs sont très fidèles, et la Z3 Tablet Compact laisse donc la meilleure impression .Caractéristiques de l’écran, FrAndroidPar contre, sur la qualité de l’affichage, ce produit ne tient pas le choc face à un iPad de dernière génération qui affiche une meilleure résolution. Ici, rien de mauvais, mais on ne peut cacher que certains pixels sont visibles, et que certaines courbes sont en escalier (aliasing). La très habituelle patte de SonyComme pour les Xperia Z3 et Xperia Z3 Compact, l’interface de Sony a été installée sur Android 4.4.4 KitKat , en attendant qu’Android 5.0 Lollipop vienne prendre le relais. On fait donc face à un logiciel bien connu et qui, comme pour le design, fait souvent débat auprès des utilisateurs, surtout en ce qui concerne l’esthétique. L’interface Sony n’a pas évolué depuis celle du Xperia Z2, que ce soit sur le design ou en ce qui concerne les fonctionnalités. On a beau chercher, on ne trouve pas de nouvelles fonctions sur cette tablette. Il y a toujours une barre de notifications séparée en deux onglets, l’un pour les notifications et l’autre pour les réglages, avec toggles à la clé, et dans le multitâche, tout en bas de l’écran, on trouve des mini applications (calculatrice, emails…) pouvant être ajoutées par-dessus la home, à la façon de fenêtre pop-up.Pas de surprise donc, avec la présence des applications Lifelog (pour suivre son activité physique et à coupler au Smartband), Walkman (avec une bibliothèque musicale bien pratique), Films (bibliothèque vidéo) et l’application Playstation qui, couplée à votre Playstation, permet de diffuser les images directement sur l’écran de votre tablette. Pour jouer, vous pouvez appareiller votre manette de PS4 et votre Xperia Z3 Tablet en Bluetooth avec PS4 Remote, et un support permet aussi de relier les deux. L’application peut aussi servir à interagir avec vos amis sur le PSN, tout simplement.Le logiciel est réactif et fluide, mais on émettra une toute petite réserve relative à un incident survenu une seule fois : la tablette a totalement plantée. L’image s’est bloquée et il a fallu rebooter la tablette pour pouvoir s’en servir à nouveau. Etrange. Performances : la stabilité avant toutSur le papier, la Xperia Z3 Tablet Compact est ce qui se fait de mieux, ou presque, sur le marché des tablettes. Elle est équipée d’un processeur Snapdragon 801 cadencé à 2,5 GHz , couplé à une puce Adreno 330 et à 3 Go de mémoire RAM . On s’attend donc à de belles performances, mais reste à voir si l’appareil se comporte bien en usage multimédia, et particulièrement en phase de jeu.Concernant les benchmarks, les scores sont plutôt bons, et notamment sur les tests graphiques, avec 18330 points sur 3DMark ou 28 fps sur GFXBench (T-Rex Offscreen). Pour le reste, AnTuTu atteint 42615 points et Vellamo (tests CPU) obtient de bons scores de 1802 et 1421 points.Benchmark/ModèleSony Xperia Z3 Tablet CompactNexus 9Lenovo Yoga Tablet 2AnTuTu v542615 points54100 points32570 pointsVellamo (Multicore)1802 points/1414 pointsVellamo (Métal)1421 points/1074 pointsGFXBench (Manhattan Offscreen)11,9 fps31,2 fps/GFXBench (T-Rex Offscreen)28 fps62,7 fps18,1 fps3D Mark (Ice Storm Unlimited)18330 points25300 points14875 pointsPC Mark3795 points5800 points4150 pointsEn jeu, on ne constate absolument aucun problème avec cette tablette. Sur des jeux peu gourmands, comme Badlands ou Smash Hit, la fluidité est au rendez-vous mais cela ne nous étonne guère. Sur un test plus poussé de 15 minutes sur Real Racing 3, les résultats obtenus étonnent un peu plus et ne sont pas forcément à la hauteur de ce qu’on a pu voir sur le Oppo Find 7, qui reste notre référence dans ce domaine, en dehors des appareils équipés en Tegra K1. La tablette obtient une moyenne de 36 fps (le Xperia Z3 en obtient 38), ce qui signifie que la fluidité n’est pas non plus optimale. Le framerate varie d’ailleurs entre 25 et 45 fps , même s’il s’avère plutôt stable. C’est globalement bon pour un Snapdragon 801.On est par contre un peu plus surpris par les données recueillies. La fréquence d’horloge du CPU varie énormément sur chaque coeur, mais il semblerait qu’ils prennent chacun le relais tour à tour pour garantir une fréquence minimale d’environ 1,5 GHz , avec de nombreuses pointes à 2,5 GHz. Lorsqu’un coeur baisse sa fréquence, un autre vient prendre le relais, et ainsi de suite. Quant à la fréquence d’horloge du GPU, elle varie entre 320 et 462 MHz , avec des pointes à 578 MHz (de plus en plus fréquentes à mesure que l’on joue). Par contre, on observe quelques chutes de fréquence à 200 MHz.Et en utilisation réelle alors ? La tablette est stable et on ne ressent pas d’écarts de fluidité. Il faut à la limite se concentrer sur l’image pour observer les très rares ralentissements que les graphiques de Gamebench décrivent. MultimédiaCommunication & GPSAvec le modèle 4G, ceux qui souhaitent utiliser leur tablette en mobilité seront gâtés, quoique le prix de l’appareil devient du coup très onéreux. La Xperia Z3 Tablet Compact n’accepte d’ailleurs que les nano-SIM (c’est bien dommage). Pour avoir testé le réseau 4G face au LG G3, avec deux cartes Sosh, les débits sont exactement les mêmes , et il n’y a aucun problème à signaler.Quant au GPS, il est également très performant, capable de trouver votre position en quelques secondes. De nombreux satellites sont trouvés et fixés, avec une position GPS très précise.SonAvec toute la technologie sonore qu’il intègre à ses appareils, comme  Clear Bass, Clear Phase, Clear Stereo, ou Clear Audio+ , Sony propose une expérience sonore très intéressante. Les deux haut-parleurs stéréo profitent d’un volume sonore élevé mais équilibré, et on est agréablement surpris par ce qu’ils produisent comme qualité de son. C’est enveloppant.PhotographieOn est souvent les premiers à le dire : la photographie et les tablettes, dans un monde idéal, cela ne devrait pas être compatible. Mais comme il s’agit d’une tablette Sony, équipée d’un capteur Sony, on est en droit de s’attendre à quelque chose de bien dans ce domaine. Malheureusement, le constructeur ne fournit pas beaucoup d’efforts , avec des clichés sans substance, et avec l’absence remarquée d’un flash.ErgonomieL’ergonomie se classe aussi bien dans une catégorie design que dans une catégorie multimédia. Le format 16:10 de la tablette est idéal pour regarder des films, plus que le 4:3 en tout cas, et n’handicape pas non plus la navigation classique sur l’appareil.Un mot sur l’étanchéité de la tablette, qui se confirme, et permet des usages plus délicats. Elle permet aussi de ne plus avoir peur d’utiliser ce produit dans une salle de bain, ou à la plage (résistance à la poussière), par exemple. Autonomie : l’excellence ?La Sony Xperia Z3 Tablet Compact a déjà une petite réputation grâce aux tests de nos confrères américains. Il se dit qu’elle possède la meilleure autonomie du moment pour une tablette. Mais est-elle justifiée ? En grande partie, et on dira que cela dépend des usages.La tablette est assez impressionnante à l’usage quotidien avec une perte d’autonomie minime à l’usage. C’est en tout cas l’impression que laisse la tablette après avoir joué quelques heures à Badlands. Je m’attendais à trouver une batterie fonctionnant sur la réserve à la sortie, mais pas du tout. Le niveau d’autonomie était encore supérieur à 50%.Nous avons donc essayé de confirmer la chose lors de tests plus classiques. Le premier consistait à lancer un test sur une vidéo 1080p en local, c’est-à-dire sans WiFi, et en luminosité maximale. Après une heure de lecture, on constate une perte de charge 13% . Si on fait rapidement le calcul, on devrait avoir droit à environ 6 heures de lecture vidéo sur la tablette. Le même test, mais sur une vidéo HD issue de l’application Youtube cette fois, occasionne une perte de 17% de charge. C’est déjà moins bien. Enfin, le test d’autonomie de Gamebench indique plus de 3 heures de jeu possible, soit un résultat moyen. D’un autre côté, il indique qu’une heure fait perdre 25% de batterie, et c’est donc plutôt sur quatre heures qu’il faudra tabler.Si la Z3 Tablet Compact ne se démarque pas vraiment sur ces tests, avec des résultats assez proches de ceux de la Nexus 9 par exemple, elle est néanmoins très efficace en utilisation normale. Même en s’en servant pas mal, on peut largement en espérer une journée d’utilisation, et même 2 jours en utilisation modérée (c’est également ce qu’indique le menu de gestion de l’alimentation). Et si elle est utilisée ponctuellement, on peut en espérer 3 à 4 jours d’autonomie, voire plus grâce au mode Stamina et à la veille qui ne consomme presque rien. En fin de compte, pour des joueurs ou de grands cinéphiles, cette tablette ne se distinguera pas particulièrement sur ce plan, mais pour quelqu’un qui s’en sert d’appareil d’appoint ou pour des usages multimédias occasionnels, elle est idéale. Notre VerdictdesignL’aspect de cette tablette ne laisse pas indifférent, ni sa prise en main d’ailleurs. Elle est jolie, légère, fine, surtout dans ce coloris blanc. La coque arrière l’est moins, et prend toutes les traces, mais se nettoie facilement. On est tout de même face à un produit qui respire la qualité, de bout en bout. écranC’est un bel écran qui s’offre à nous, avec une résolution très correct, et le savoir-faire de Sony en matière de technologie d’écran. L’appareil performe sur la fidélité des couleurs, sur la luminosité et sur la qualité de l’écran en lui-même. C’est, en tout cas, certainement l’un des plus équilibré sur Android.logicielL’interface Sony est appréciée à différentes mesures. Si son esthétique fait débat, la tablette reste néanmoins facilement utilisable et il y a peu de risques de se perdre dans le menu. Les applications natives de Sony sont aussi très appréciables pour l’usage multimédia d’un appareil. On émet une petite réserve à cause d’un plantage qui a nécessité le reboot du produit. Un cas isolé ?performancesCette tablette se comporte réellement bien en jeu grâce à son Snapdragon 801 et ses 3 Go de mémoire RAM. Les tests effectués sont là pour en attester : elle est moins puissante qu’un Tegra K1 mais s’en sort très bien avec ses propres armes. Elle est surtout très stable. autonomieElle a bonne réputation, et elle le mérite. La Xperia Z3 Tablet Compact semble mieux armée que ses concurrentes concernant l’autonomie. A 75% de la luminosité (c’est suffisant), on obtient même des scores descendant sous les 10% de perte de charge en 1h. Et avec le mode Stamina, les (seulement) 4500 mAh de la tablette tiendront facilement plusieurs jours en usage modéré. caméraCe n’est pas seulement la caméra qui est jugée ici, mais l’aspect multimédia du produit. Si l’appareil photo n’est pas plus séduisant que cela, le format de la tablette se distingue un peu plus, tout comme les résistances à l’eau et à la poussière, qui donnent tout de suite un côté moins « fragile » à cette tablette. Finalement, cette Sony Xperia Z3 Tablet Compact, au nom infini et rebutant à prononcer, est un produit hyper équilibré. L’objet respire la qualité et ne semble souffrir d’aucun gros défaut qui pourrait ternir son image. On peut à la limite lui reprocher de ne pas s’équiper du tout dernier processeur Snapdragon 805, elle qui sort si tard dans l’année. Elle possède de nombreux arguments à même de séduire les potentiels clients : un bel écran aux couleurs vives et ajustables, une taille de guêpe, un poids plume, et une grande autonomie. Des critères particulièrement regardés – surtout l’autonomie et l’écran – par ceux qui souhaitent s’offrir une tablette. Argument marketing phare de Sony, l’étanchéité de l’objet est également l’assurance d’éviter quelques catastrophes, et possède l’avantage d’élargir l’éventail d’utilisations de la tablette, que ce soit dans son bain, ou à la plage pendant les vacances. Quant à son prix de 479 euros, il est finalement dans la norme et s’aligne à peu près sur la concurrence. À sa sortie, la version 4G de la Galaxy Tab S de 8,4 pouces affichait un tarif similaire. Evidemment, cela reste trop cher, et même la version Wi-Fi s’affiche à 379 euros. Mais après quelques ODR, et à l’approche des fêtes de fin d’année, son prix devrait être plus raisonnable. Bref, il s’agit d’une très bonne tablette, et il est difficile de ne pas la conseiller. Elle possède la meilleure autonomie des tablettes de cette catégorie, elle respire la qualité de fabrication et l’offre multimédia de Sony est très complète. * Elle respire la qualité ! * Ecran : luminosité, couleurs * Autonomie excellente * Etanchéité, hop dans le bain ! * PS4 Remote : pour les gamers ! * Coque arrière en plastique sensible aux traces * Photographie en retrait * Prix élevé (vivement les promotions)

Read more

La vérité sur la qualité actuelle des vins…

Agora Vox

Brigitte Dussert : la passion des hommes, la qualité des millésimes, l’authenticité, les différences entre chaque vignoble, entre chaque vin, c’est bien le fond du problème, non ? Patrick Dussert-Gerber   : depuis vingt ans, il y a pas mal de « faiseurs », du côté des producteurs comme dans celui de professionnels (critiques, oenologues), qui se plaisent à encenser des vins qui n’ont pourtant « ni âme, ni vertu ».Depuis mes débuts, j’entends des « critiques » dénigrer, par exemple, ces vins rouges bourguignons qui manqueraient de couleur, de puissance, etc… Et alors ? Qui a dit que la densité d’un vin était un symbole de qualité ou un gage de longévité ? A ces ignorants, on pourrait faire sentir un 1993, 1989, un 1976…, bien plus fabuleux qu’un vin à la mode, ultraconcentré au départ et vide de toute substance au bout de quelques années… Plusieurs facteurs sont à prendre en compte :- L’arrivée d’investisseurs, fuyant l’Isf, n’a pas été forcément un bien pour telle ou telle appellation, et, encore moins, pour les vignerons de souche, qui ont de plus en plus de mal à transmettre leur patrimoine quand les prix des terres s’envolent littéralement. Sur le plan marketing, main dans la main avec quelques professionnels bien payés, on a aussi vu, parfois, s’estomper la force du terroir pour en arriver à la production de vins standardisés, vite bons à boire, vite commentés, encore plus vite encensés, notés 19/20, 99/100… et je ne sais quoi comme autre ineptie !Naturellement, il y a, heureusement, des vrais amateurs de vins qui investissent dans les vignobles, mais vous verrez qu’ils se font beaucoup plus discrets, et c’est tant mieux. Quant aux investisseurs institutionnels, en fait, et contrairement à ce que l’on aurait pu croire, ils sont beaucoup plus tempérés dans leur soif d’apparence. - Le suivi des générations n’a pas été forcément porteur. C’est vrai à Bordeaux comme dans la Loire. Je connais tant de vins superbes à l’époque des parents (ou grands-parents), devenus aujourd’hui beaucoup moins captivants, même si, je le reconnais aisément, on parle plus d’eux qu’auparavant. Mais à quoi bon, si le vin ne suit pas ? - Découlant de cela, on peut distinguer des tendances selon les vignobles :* La Bourgogne et l’Alsace demeurent les entités viticoles où la famille joue vraiment un rôle prépondérant. Pas facile pour un quidam d’acheter un vignoble dans ces régions.* Dans une moindre mesure, les prix n’étant pas non plus les mêmes, on peut citer le Val de Loire et la Vallée du Rhône, où les traditions familiales restent ancrées dans leur territoire.* La Champagne, riche, prospère, et, comme nous le verrons, bénéficiant d’une explosion qualitative réelle, voit de nouvelles maisons, coopératives et des vignerons (certains, que vous ne trouverez pas dans le Guide, atteints par « la grosse tête ») parvenir au sommet, voire dépasser pas mal de maisons « historiques ». C’est flagrant quand on fait des dégustations « à l’aveugle » et c’est indubitable quand on fait intervenir le rapport qualité-prix-typicité. Certes, l’aura des grandes maisons semble rester stable puisque leur notoriété est toujours importante.* Bordeaux, le Languedoc et la Provence sont donc les régions qui ont attiré le plus d’investisseurs. La Provence, pour son climat et la beauté des propriétés, le Languedoc pour la sagesse des prix des terres, Bordeaux pour son influence extraterritoriale et la facilité de créer des vins « à la mode ». Ceci, bien entendu, au détriment de l’immense majorité des vignerons de ces régions, passionnés, passionnants, peu enclins à élever des vins pour être mieux noté que leur voisin… Et, je le rappelle, tout spécialement à Bordeaux, des bouteilles que l’on a de plus en plus de mal à situer dans des dégustations. Car, qu’on le veuille ou non, un millésime 2004 qui ressemble au 2005 ou au 2006, ce n’est pas normal. Comme un Médoc qui ressemble à un Pessac-Léognan. En faisant des vins surboisés, surmaturés, on tue bien sûr l’élégance, mais on lisse surtout l’effet millésime, en faisant des vins dépersonnalisés, pas plus intéressant qu’une boisson chimique.On vendange de plus en plus mûr, ce qui est une bonne chose, mais si, en plus, on utilise des concentrateurs, ajoute des levures… et pratique un élevage abusif en barriques neuves, cela donne des vins trop lourds, trop écoeurants, trop alcoolisés… alors que ce n’est pas dans l’air du temps ! Et cela n’a rien à voir avec le réchauffement climatique comme certains le prétendent… En fait, il faut dire la vérité sur la qualité de chaque millésime. L’explication, en partie, de l’une des facettes de la crise des vins de Bordeaux, c’est que certains grands crus ont vendu bien trop cher en primeur le 2007. Ce n’est qu’un millésime sympathique, très agréable, bon à boire rapidement, qui commence à s’ouvrir, et c’est déjà pas mal, mais il aurait dû coûter bien moins cher ques les 2005 et 2006… Il faut que le prix du millésime corresponde à la qualité du vin pour que le marché reste confiant, les acheteurs ne sont pas si idiots. En Bourgogne, dans la Loire ou dans le Rhône, on ne vend pas un 2007 plus cher qu’un 2005, autrement dit on ne spécule pas le prix de sa bouteille au « loto » des millésimes.On l’a compris, nous faisons face à deux mondes du vin : celui, mercantile, presque virtuel, qui profite de la méconnaissance des acheteurs, notamment des pays émergents, et se sont coupés des acheteurs fidèles et traditionnels (français, belges, suisses, anglo-saxons…). Ils pratiquent la fuite en avant, faute de bases de commercialisation stables. Pour eux, il faut sans cesse trouver un nouveau marché pour caser sa marchandise ; et les autres, qui ont, on s’en doute, nos préférences.  Brigitte Dussert : c’est cette « éthique du vin » qui vous tient tant à coeur ? Patrick Dussert-Gerber  : l’éthique du vin pourrait s’appeler l’éthique tout court. Je suis attaché à une éthique et aux propriétaires qui respectent le consommateur. Plus l’on s’éloigne d’une relation avec ce dernier, plus l’on se dirige dans une logique de vin aseptisé. Il faut qu’il y ait un échange, un retour avec l’acheteur. Il y a un vrai monde virtuel du vin qui s’est créé, certains ne savent même plus si leur vin est apprécié, qui le diffuse, qui le boit…Que l’on ne s’y trompe pas : tout est lié. Soit vous êtes un vigneron passionné et devenez alors passionnant pour un consommateur, soit vous êtes un producteur imbu de lui-même et personne n’a envie de « boire un canon » avec vous. Dans le premier cas, vous croyez en la nature, en votre terroir, en votre histoire et vous mettez à leur disposition les progrès oenologiques. Dans l’autre cas, vous lissez les millésimes, faites du vin comme on ferait du soda, une cuvée pour les femmes, une autre pour les jeunes, une autre pour les chinois, etc…Et tout s’enchaîne : si vous êtes en contact avec celui qui boit votre vin, il est aisé de lui expliquer que, par exemple, le 2007 est meilleur à boire aujourd’hui qu’un 2010, loin d’être prêt. Il ne s’agit pas de dire que l’un est meilleur que l’autre, cela ne veut rien dire. Tous les vins sont bons dans le temps, chaque millésime a son potentiel d’évolution. Vous retrouvez cela dans ma Vintage Code.Ceux qui partagent la même éthique que moi, vous les retrouvez dans Millésimes et dans mon Guide, je connais leur courage et leur détermination en sachant que ce n’est pas toujours facile pour eux. Ils sont plus discrets, plus humbles devant la nature mais, croyez-moi, ils vendent tout aussi bien que ceux qui pourraient poser en se prenant pour des stars dans un magazine people…Moi, j’aime les vignerons qui se retroussent les manches, font des salons, accueillent à la propriété et dialoguent avec leurs clients. On l’a bien vu avec la crise : les producteurs qui informent et ménagent leur clientèle n’ont pas été touchés, et c’est bien normal. Autre exemple : un vigneron digne de ce nom qui parcoure ses vignes en bottes sait très bien qu’il ne faut pas mettre trop de pesticide, connaît la culture raisonnée et raisonnable, cela fait une vingtaine d’années qu’il en a pris conscience. Ce n’est pas parce que le bio est à la mode, il le faisait naturellement auparavant, mais n’en parlait pas.  Brigitte Dussert : franchement, il y a de bons vins partout en France ? Patrick Dussert-Gerber  : évidemment, et à tous les prix. Quand on aime le vin, il faut aussi aimer la diversité. Depuis trente ans, le fait de parcourir tous les vignobles pour déguster les vins m’amène à déboucher aussi bien un vin corse qu’un Châteauneuf-du-Pape, qu’un Sancerre, un Vosne-Romanée ou un Chinon, un Chablis ou un grand rosé de Provence…Contrairement à d’autres, je ne bois pas uniquement des vins chers que l’on m’offre… Pour moi, un grand vin, c’est un vin authentique, qui correspond à un moment donné, à un état d’esprit. On peut prendre autant de plaisir avec un Minervois, un Alsace, un Chénas ou un Touraine qu’avec le plus beau Pomerol ou Meursault, à partir du moment où chacun est typé. Il y a des occasions, des moments pour boire chaque type de vin. On ne boit pas le même vin seul en rêvant au cosmos, qu’avec des amis, ni le même vin sur une terrine ou un plat sophistiqué. C’est la grande force de notre pays : avoir une gastronomie aussi riche que ses vins, c’est formidable ! Avec nous, l’Italie est le seul autre pays au monde à pouvoir revendiquer cela. Ce n’est pas rien.   Brigitte Dussert : que faut-il vraiment savoir sur les millésimes ? Patrick Dussert-Gerber  : depuis 15 ans, il n’y a plus de mauvais millésimes, il n’y a que des millésimes plus délicats que d’autres. Les techniques ont évoluées dans le bon sens, les vignerons savent parfaitement anticiper, gérer leur vignoble.Néanmoins, il faut savoir expliquer la spécificité de telle ou telle année. Quand on goûte des 2002 ou 2004 en Médoc, ils sont meilleurs que le 2003 pour lequel tout le monde s’enthousiasmait ! Le 2004, par exemple est un millésime formidable qui a eu mauvais presse à l’époque de la part de critiques qui ne connaissent pas grand chose au vin. Ceux-là, je ne les vois d’ailleurs jamais dans les vignobles de la vallée du Rhône, à Madiran, à Bandol ou à Saumur… ils sont pour la plupart invités dans les grands châteaux bordelais et s’en contentent. Sympa pour les milliers de vignerons talentueux des autres régions, non ?Quand je lis de telles âneries, je me demande si ceux qui les écrivent ont jamais dégusté des millésimes plus anciens. C’est pourtant la seule garantie qui permet de relativiser, de comprendre et de se référer à une mémoire du vin. Les mêmes vont répéter ce qu’on leur a concocté dans un dossier de presse bien ficelé… Ce ne sont plus des journalistes mais des… attachés de presse ou des « hirondelles » (terme désignant un habitué des buffets de presse) ! Passons. Pour revenir à la force des millésimes, il est incontestable que le 2009 est certainement le plus beau millésime qui soit, classique, à l’inverse d’un 2005, grand, certes, mais aussi atypique à cause de la chaleur intensive. En 2009, l’acidité est également présente, ce qui apporte cet équilibre entre la puissance et l’élégance, cette fraîcheur naturelle qui signe les vrais grands vins. Il est bien trop tôt pour en parler, et l’on sait que je ne rentre pas dans le jeu des « primeurs » (encore Bordeaux) qui va bientôt rivaliser avec le salon des devins et cartomanciennes… tant on va noter un vin qui n’existe pas encore !  Brigitte Dussert : faisons un tour de France, pour développer la spécificité de chaque millésime, selon les régions… L’Alsace ? Patrick Dussert-Gerber  : en Alsace, les derniers millésimes sont savoureux, les2012 et 2011, les grands 2010 et 2009, le millésime 2008 est nettement plus réussi que le 2007, particulièrement difficile (il y a de rares exceptions), les 2006, 2005, 2004, 2002 et 2001 suivent, le 2003 a été plus délicat à vinifier (en Vendanges Tardives, misez sur les 2006, 2004, 2001, 2000, 97 ou 89). Il existe une réelle convivialité des hommes de la région et leurs vins atteignent une typicité rare, procurant la joie du vin, à des prix qui ont tendance à monter. Attention à la complexité des terroirs, voire à l’amalgame entre des crus et des lieux-dits. Il faut rechercher la fraîcheur et la vivacité, au détriment de vins trop souples, avec trop de sucrosité, qui deviennent de plus en plus « douceâtres ». Un Riesling, un vrai, doit être sec et vif.  Brigitte Dussert : vous êtes fidèle à la région beaujolaise… Patrick Dussert-Gerber  : c’est vrai que je n’apprécie pas que des « confrères » parisiens ou étrangers médisent sur la région sans n’y rien connaître. Notre rôle n’est pas d’enfoncer une appellation ou un vigneron pour se faire mousser dans un salon ou lors d’un dîner. Nous avons -surtout- un rôle de prescripteur, dans le sens noble du terme grec.Comment ne pas apprécier un Chénas, un Fleurie, un Morgon ou un Brouilly ? Le même cépage et des sols très typiques, très différents, expliquent cette spécificité propre à la région. On ne confond pas un Chiroubles et un Moulin-à-Vent !En Beaujolais, pour les crus, les vins sont très bons, du 2013 au 2009, le 2008 est assez réussi, le 2007 a été très difficile à maîtriser, le 2006 est excellent, le 2005 très typé, le 2004, dense et très aromatique, et le 2003, trop mûr, beaucoup moins intéressant. La force du terroir donne une réelle typicité à chaque cru, et les meilleurs vignerons s’évertuent à sortir de beaux vins, chacun représentatif du style de son appellation. On se doute qu’un Saint-Amour ne doit pas ressembler à un Morgon, et c’est très bien ainsi.  Brigitte Dussert : venons-en aux vignobles de Bordeaux.. Patrick Dussert-Gerber  : j’adore les vins du bordelais, c’est certainement la raison pour laquelle je suis si déçu quand je débouche désormais des bouteilles qui feraient honte à ceux qui m’ont appris le vin : Émile Peynaud ou Jacques de Loustaunau de Guilhem, grandissimes oenologues. Et puis, je n’oublie pas les vraies figures bordelaises qui manquent tant à la région…Globalement, les meilleurs à boire actuellement : 2011, 2007, 2006, 2004, 2002 et 2001. Ceux qu’il faut attendre : 2010, 2009, 2008, 2005. Les ambigûs, pour lesquels il s’agit de frapper à la bonne porte : 2013 et 2012. Le plus décevant : 2003.Si l’on entre dans le détail, il y a bien sûr une différence entre les vins de la rive droite (ceux du Libournais) et ceux de la rive gauche (Médoc et Graves). On retrouve des « paires » de millésimes où la qualité est inversée : le 2005 est bien meilleur que le 2006 à Saint-Emilion et c’est le 2006 qui prime en Médoc. Il y en a d’autres. - Dans le Médoc, misez sur les 2012, 2011, 2010, 2009, 2007, 2006, 2004 et 2002 (supérieur au 2003), voire 2001, très classiques, et faites-vous toujours plaisir avec les 1999, 1996 ou 1990. La priorité, c’est de laisser s’exprimer son terroir, en respectant la vigne, en limitant les rendements, en pratiquant la lutte raisonnée, en laissant faire la nature… Il y a une dizaine d’années, le travail des vignes avait été délaissé dans certains crus, au profit de la vinification et d’expériences à outrance. Si les techniques modernes sont souvent remarquables, les propriétaires traditionnels continuent de faire ce qu’ils savent faire, en se servant des progrès mais sans masquer leur typicité. De Pauillac à Saint-Estèphe, de Moulis à Margaux, à Listrac comme à Saint-Julien, en Haut-Médoc et en Médoc, les coups de coeur sont nombreux. En parallèle, les prix très exagérés de certains vins renommés sont difficilement cautionnables, surtout pour les 2013, 2012, 2007 et 2005. - Pomerol. Structure, charme, intensité, distinction, les plus grands vins de Pomerol sont particulièrement sensibles et marqués par leurs sols, très diversifiés. Ici, nul besoin de s’escrimer à vouloir abuser de la barrique neuve ou d’une surconcentration pour faire un grand vin, c’est le terroir qui prime, et signe la distinction. Les 2011, 2010, 2009, 2007, 2006, 2004, 2003 et 2002 sont très savoureux (le 2002, peut-être même supérieur), le 2001 remarquable, plus fin, le 2000 parvient à maturité. Plus anciens, les grands font la différence, comme le 1995, voire le 1990. - À Saint-Émilion, le 2011 est très classique et charmeur, comme le 2007. Beaux millésimes 2010 et 2009, le 2008 un ton en-dessous, 2006, 2004 et 2001, éclipsés à tort par le 2005 ou le 2003. Quelques crus ont remarquablement réussi le 2003, d’autres beaucoup moins, notamment ceux qui sont trop « confiturés ». Débouchez les millésimes 2007 à 1990 en ce moment, et notamment le grandissime 1995. Certaines bouteilles de 1994 et 1993, notamment, sont surprenantes d’évolution. Un certain nombre de crus pratiquent des prix qui ne sont pas justifiés. Certains se flattant ici d’élever des cuvées très « spéciales », il faut plus que jamais tirer un coup de chapeau aux propriétaires de talent qui élèvent les véritables grands vins de Saint-Émilion, satellites compris, du plus grand des grands crus au plus modeste rapport qualité-prix.  Brigitte Dussert : vous habitez dans le vignoble des Graves, que vous connaissez comme votre poche… Patrick Dussert-Gerber  : depuis 35 ans, j’ai suivi, en effet, les achats, les extensions, les frimes, les camions déversant des galets, admiré, cotoyé et sympathisé avec des « figures » exceptionnelles : Patrick Ricard à Chevalier, dont Olivier Bernard a suivi les traces avec talent, Jean Sanders à Haut-Bailly (on avait le même club d’aviation, à La Réole), la famille Marly (anciennement Malartic-Lagravière), Gérard Gribelin (Fieuzal, parti se faire plaisir au Maroc), François Lévêque (Chantegrive), Jean-Bernard Delmas (Haut-Brion, son fils, Jean-Philippe, ayant repris sa suite à Haut-Brion)…, constaté avec rage -ou ironie- des plantations de vignes dans des territoires sans intérêt, où le maïs pousserait aussi bien (je connais, il en pousse, chez moi).Du plus grand vin au plus abordable, on savoure donc, du nord au sud de cette entité des Graves, une variété importante de styles de vins. Mes dégustations en Pessac-Léognan comme en Graves, des millésimes 2112 à 2001, confirment mon Classement, les valeurs sûres, où le talent des hommes s’associe à la race du terroir. Gare à certains prix néanmoins, et à une concentration outrancière chez certains, au détriment de la typicité, notamment dans le millésime 2005, pour les rouges, où l’on peut tomber sur une véritable « confiture » au détriment de l’élégance. Les blancs 2011, 2010, 2009, 2008, 2006, 2005, 2004, 2001, 2000, 1998 ou 1997 sont excellents. Des crus réellement exceptionnels, issus des territoires de Pessac, Martillac, Léognan, mais aussi ceux de Podensac, Portets ou Saint-Morillon, certains d’entre eux, dans les appellations Pessac-Léognan comme dans celle des Graves, bénéficiant d’un remarquable rapport qualité-prix-plaisir. C’est le berceau des beaux vins blancs de la région bordelaise, aux côtés de rouges puissants et typés, si l’on frappe à la bonne porte.  Brigitte Dussert : et les appellations des Côtes ou Bordeaux Supérieur, pour lesquels vous avez tenu à créer des Classements, pour récompenser les efforts des hommes ?   Patrick Dussert-Gerber  : dans ces appellations de Côtes, on peut acheter les millésimes 2012 à 2000, avec l’opportunité des excellents 2006 et 2004, même s’il y a de tout, de grands vins racés et d’autres cuvées issues de vinifications trop sophistiquées, peu propices à mettre un véritable terroir en avant. Les meilleurs vins se trouvent à Bourg et à Blaye, et les rares valeurs sûres des Premières Côtes sont incontournables. Castillon fait souvent des vins plus « modernes ».Ce qui réunit ces appellations, c’est le manque de visibilité, le manque d’entrain, de communication, etc.En Bordeaux Supérieur, les dégustations des millésimes 2012 à 2000 confirment le plaisir que procurent aujourd’hui ces vins, même si, comme ailleurs, la différence des terroirs et l’élevage sont toujours prépondérants. Attention également aux cuvées trop boisées ou trop concentrées (et bien trop chères), qui n’ont aucun intérêt. Les meilleurs tiennent la distance avec des millésimes 2005, 2003, ou 2000, excellents actuellement.  Brigitte Dussert : et Sauternes, votre pêché mignon ? Patrick Dussert-Gerber  : j’avoue un faible, en effet, pour les vins liquoreux. Mais je me fais autant plaisir, sans jamais les comparer, avec un Bonnezeaux, un Gewurztraminer Sélection de Grains Nobles ou un Vin de Paille. À Sauternes, il y a des styles de vins qui me séduisent plus que d’autres. Je privilégie la finesse au côté sirupeux, préfère la fraîcheur à la liqueur. Ici, le millésime 2007 est formidable, dans la lignée du 2001. Plusieurs millésimes, en dehors du 2002 (où le plaisir est bien rare), comme les 1999 ou 1998 sont de toute beauté. Les 2006, 2005 et 2003 sont réussis, les 2005 et 2003 certainement moins typés, et le 2004 particulièrement savoureux et classique. Les plus grandes bouteilles à leur apogée sont aujourd’hui celles des millésimes 1996, 1995 ou 1989, où l’on atteint le grand art. L’équilibre géologique et climatique de la région en fait un milieu naturel idéal pour cette fascinante biologie qu’est le Botrytis Cinerea, ce minuscule champignon qui a le pouvoir d’augmenter la teneur en sucre des raisins, aidé par les brumes matinales des automnes qui précèdent un soleil chaud à midi, favorisant sa prolifération. Nous allons également nous faire plaisir avec le 2011, bien plus qu’avez les 2012, voire 2010, assez délicats. Quant au 2013, les très rares vins savoureux vont se compter sur les doigts, même si ceux qui les ont réussis offriront des vins exceptionnels…  Brigitte Dussert : la Bourgogne vous est aussi très chère, non ?   Patrick Dussert-Gerber  : c’est, depuis mes débuts, la région où j’ai le plus de plaisir à séjourner. J’aime la grande simplicité des Bourguignons, leur chaleur humaine et leur fidélité. Et puis, à part la Loire, dans un autre style, plus vif, plus minéral, quels autres vins blancs secs peuvent rivaliser avec ceux de Bourgogne, où la suavité se mêle à une explosion d’arômes apportées par ce fabuleux cépage Chardonnay ?L’altitude des vignes, l’inclinaison des pentes, la richesse des sous-sols en ressources minérales… Tout concourt donc ici, à faire la différence entre un bon vin et un vin sublime, et cela explique l’extrême diversité des grands vins bourguignons, qui leur donne cette typicité unique, où l’élégance prédomine toujours, en rouge comme en blanc. J’apprécie ces vignerons talentueux et passionnés, pour lesquels il n’y a nul besoin de fioritures ni de vinifications « gonflées », et dont les prix sont bien souvent justifiés, même s’ils remontent. La Bourgogne est un paradoxe à l’état pur, où la nature, au travers des terroirs et des microclimats, est omniprésente. Comment expliquer que l’on puisse trouver autant de différence entre un Nuits-Saint-Georges ou un Pommard, un Meursault ou un Montrachet, quand on sait que le cépage (Pinot Noir ou Chardonnay) est unique, et que l’on ne peut pas « jouer » sur la proportion des raisins ? Quand on se promène entre les murets qui entourent les vignes des Grands crus, on voit qu’à quelques mètres de distance le sol ne produit pas les mêmes crus. L’altitude des vignes, selon qu’elles se situent à 150 ou 300 m, l’inclinaison des pentes (les meilleurs vins proviennent des mi-pentes), la richesse des sous-sols en ressources minérales, en sodium, en oligoéléments… Tout concourt ici, dans un « mouchoir de poche », à faire la différence entre un bon vin et un vin sublime. Ajoutez à cela l’exposition (fondamentale) face aux mouvements du soleil, un territoire pauvre où la terre est rare, et vous comprendrez l’extrême diversité des grands vins bourguignons. Globalement, les Grands crus sont régulièrement « supérieurs » aux Premiers crus, l’exception et le talent de l’homme confirmant la règle.En Bourgogne, aux côtés d’une belle séquence qui comprend les millésimes 2012 à 2009, le 2008 est assez délicat, le millésime 2007 très réussi, très minéral, en blanc (très beaux Chablis) comme en rouge, ces derniers largement supérieurs au 2006. Les millésimes 2004, 2003, 2002, 2001, 2000 et 1999 sont très savoureux. Exceptionnel 2004, dans la lignée du 2000, dans les deux couleurs, qui côtoie donc un 2003 atypique, comme le grand 2005, qui demande de la patience. Superbes bouteilles en blancs dans les millésimes 2000, 1999, 1995 ou 1989, alors que les meilleurs rouges développent leur attrait dans les millésimes 1999, 1997, 1989, ou 1985.  Brigitte Dussert : et le Champagne ? Patrick Dussert-Gerber  : c’est à une véritable explosion qualitative que nous avons assisté en 25 ans. Des dizaines de vignerons ont élevé des cuvées exceptionnelles, au grand dam de quelques « grandes » maisons, historiquement parlant, qui n’ont rien vu venir. Je le vois tous les jours : quelques anciens « seigneurs » n’acceptent pas que leurs cuvées soient dépassées, qualitativement, par celles de « simples » vignerons. Mon Classement en est le reflet, et cela ne fait pas plaisir à tout le monde.Pourtant, un bon Champagne c’est charmeur, un grand Champagne, c’est toujours un plaisir exceptionnel, que l’on n’a d’ailleurs jamais pu copier ailleurs. Les hommes et les femmes, les assemblages et les terroirs font, là comme partout, toujours la différence.Je rappelle qu’il faut considérer le Champagne comme un vin à part entière : les très grandes cuvées de prestige (celles que l’on retrouve dans le Classement dans la catégorie des Premiers Grands vins Classés, puis dans une bonne partie des Deuxièmes Grands vins Classés) sont des cuvées de Champagne que l’on boit comme un grand vin, en les associant à des moments du repas, sur des plats appropriés. On a la chance d’accéder ainsi aussi bien au summum de la finesse qu’à celui de la complexité et de la vinosité. Bien que l’on en parle moins (à tort), le terroir, les sols ont toute leur importance en Champagne, apportant une spécificité réelle et différente selon que l’on se trouve à Cramant ou à Épernay, à Ay ou à Bouzy, dans l’Aube ou la Marne. À cela s’ajoute la proportion des cépages, et chaque maison, cave ou vigneron, possède alors les facultés de créer véritablement une cuvée légère ou puissante. Et puis, ce qu’il ne faut pas occulter pour comprendre la différence entre une grande cuvée et une autre, ce sont, outre l’art fondamental de l’assemblage que signe la main de l’homme, les incontournables vins de réserve, que l’on ajoute à des vins plus jeunes. On ne fait un grand vin que si l’on a du stock, l’exception confirmant la règle. Il y a aussi des cuvées bien trop chères, difficilement cautionnables, donc. Attention aussi aux nombreuses marques qui appartiennent à certains « faiseurs ». Ceux qui ne sont plus que des noms sur une étiquette ne font pas partie de cette hiérarchie, comme d’autres marques de négoce, dont la qualité n’est pas en cause, qui sont dirigées par des responsables de groupes qui vendent du Champagne comme de la lessive…Il y a de grandissimes bouteilles millésimées 2006, 2004 ou 2002 (le 2003 nettement moins passionnant, trop « rôti ») et certains vieux millésimes (1998 et 1995, notamment) sont remarquables de fraîcheur et prouvent le potentiel d’évolution des meilleures cuvées. On trouve de remarquables vins, millésimés ou non, à des prix très justifiés, dans toute la gamme, comparativement à d’autres appellations, et on comprend le succès mérité de la région.Mon Classement est nettement remanié cette année, avec des producteurs qui montent en grade et d’autres qui font l’inverse… Cette hiérarchie vient toujours, et avant tout, récompenser les efforts accomplis, le talent des hommes et leur volonté qualitative.  Brigitte Dussert : le Languedoc vous séduit davantage ? Patrick Dussert-Gerber  : j’ai fait des dégustations superbes ces dernières années, qui sont venues confirmer les précédentes, globalement depuis 2005. Le contenant est tout aussi avenant, tant les efforts des vignerons se retrouvent aussi sur leurs bouteilles.Il y a donc des producteurs qui élèvent des vins racés et typés, dans l’ensemble du territoire, des Corbières à Saint-Chinian, de Faugères en Minervois, en passant par les Coteaux-du-Languedoc, Fitou ou vins de pays, à des prix remarquables. Des grands vins ici, il y en a, mais les terroirs sont connus et ne s’étendent pas. La force de ces vins est d’avoir su conserver leur spécificité qui se dévoile au travers des cépages de la région, chacun s’exprimant au mieux selon les sols d’alluvions, d’ardoise, de schiste ou de calcaire, en bénéficiant d’un bien beau rapport qualité-prix.Il y a toujours des « vins de mascarade », où l’on parle de « vins à haute expression » (expression de la méthode de vinification et du bois neuf surtout…), qui « sentent le goudron ou le café » (cela donne envie, non ?), la réglisse (on n’est pas loin de l’écoeurement)… Idem pour les cuvées de vins blancs totalement fabriquées dans les chais où l’on est fier de vous faire sentir « la mangue et autres fruits exotiques ».Il s’agit donc de ne pas confondre l’ensemble d’une progression qualitative certaine et le développement de ces vins « fabriqués » et « putassiers » qui attirent les investisseurs comme des mouches, et sont, hélas, soutenus par des « critiques », notamment américains (ce sont les mêmes qui soutiennent les « vins de garage » bordelais). Ce problème s’étend aux vins de cépages, où je ne vois toujours pas l’intérêt de planter des cépages qui se plaisent mieux dans des régions beaucoup plus froides (les bonnes exceptions existent), ni à se lancer dans des vinifications sophistiquées pour pouvoir remplir un dossier de presse… et mentionner des prix inexcusables sous prétexte que l’on peut mettre sur une étiquette les noms de Chardonnay ou de Merlot, ou que l’on croit qu’il suffit d’acheter des barriques neuves et se payer les services d’un oenologue « tendance » pour faire un grand vin.Concernant les millésimes, en Languedoc, Les 2013 (superbes) à 2003 sont réussis. Je soutiens les hommes et les femmes qui s’attachent à élever des vins typés par ces terroirs de garrigues, maîtrisant les rendements, respectant leur spécificité. Les terroirs ont le potentiel pour que l’on y élève tout naturellement de grands vins racés, sans vouloir copier telle ou telle appellation plus connue avec des cépages inappropriés. Pour certains, l’exagération des prix et certaines renommées bien trop récentes commencent à se dégonfler comme des baudruches.  Brigitte Dussert : en Provence, c’est le royaume du rosé… Patrick Dussert-Gerber  : on a -enfin- des rosés dignes de ce nom depuis une bonne dizaine d’années, avec une progression qualitative certaine, souvent au détriment des rouges, d’ailleurs. Les rosés reviennent donc à la tête de ce type de vin, et se font payer, aux côtés de blancs, dont certains sortent vraiment du lot.Dans les trois couleurs, la Corse est en grande forme : les rosés sont splendides, les blancs racés, les rouges savoureux, avec ce côté « italien », c’est-à-dire suaves, voluptueux qui leur sied à merveille, bien au-dessus d’un bon nombre de rouges de Provence, souvent forts secs, barriques ou exagérations de concentration obligent.Les Bandol sont des vins formidables. Issus principalement du fabuleux cépage que peut être le Mourvèdre (qui apporte bouquet, corps et rondeur), les rouges de Bandol peuvent être exceptionnels. Amples, élégants, puissants, gras et très aromatiques, ils donnent toute leur véritable mesure après quelques années de vieillissement. Les rosés font aussi partie des meilleurs vins de France. Juste à côté, Cassis, avec ces blancs, des rosés et des rouges, qui profitent d’un climat exceptionnel et de la bienveillance du mistral qui nettoie les vignobles et leur fournit chaque année des températures quasiment invariables.L’influence des millésimes est en effet beaucoup moins marquée ici, et l’on peut estimer une très bonne série, de 2013 à 2003 (le 2002 étant nettement en-dessous).Les Coteaux-d’Aix-en-Provence, appartenant à la zone occidentale de la Provence calcaire, ont aussi fait beaucoup de progrès, tout particulièrement en rosés. Entre des reliefs constitués de chaînons parallèles au littoral, s’étendent des bassins sédimentaires où s’est concentrée l’activité viticole. L’appellation s’étend sous un climat de type méditerranéen, avec pour vent dominant le mistral, qui permet à la région de bénéficier d’un ensoleillement moyen de 2 900 h par an. Les sols sont argilo-calcaires caillouteux, sableux, souvent graveleux sur molasses et grès, et caillouteux à matrice argileuse ou limono-argileuse. On apprécie aussi un bon nombre de Coteaux Varois, où l’on débouche des bouteilles de plus en plus séduisantes.Et les terroirs ont aussi leur importance, ici. En Côtes-de-Provence, le vignoble prend naissance dans les Bouches-du-Rhône, au pied de la montagne Sainte-Victoire. Accroché aux flancs de coteaux sur des « restanques », ces terrasses aménagées par l’homme, ou bien isolé au milieu des pinèdes, et bénéficie de sols généralement pauvres en humus, perméables et caillouteux.Mais, évidemment, il faut savoir choisir la bonne adresse ici, se méfier des vins et des prix de « touristes », et de la grande cavalerie des rouges et rosés de bas de gamme que l’on débouche parfois. Ceux qui comptent sont ceux de ces propriétaires qui laissent s’exprimer au mieux les grands cépages de la région (Grenache, Mourvèdre, Cinsault, Rolle, Ugni Blanc…), dans ces terroirs complexes, argilo-calcaires, caillouteux, graveleux ou sableux. Eux élèvent des vins formidables dans toutes les appellations, en rouge, en blanc et en rosé. Idem pour la corse, qui mérite d’être respectée à part entière.  Brigitte Dussert : vous avez plus de réticence avec le Sud-Ouest ? Patrick Dussert-Gerber  : peu de vignerons semblent motivés et intéressés pour envoyer leurs échantillons, tout spécialement en Bergerac et Gaillac, et on comprend mieux pourquoi on entend si peu parler de ces vins. Chacun fait ce qu’il veut, et il ne me semble pas nécessaire de faire le voyage à sens unique.J’ai beaucoup apprécié les millésimes 2011, 2010 et 2009 en Madiran, Cahors et Jurançon, où les efforts accomplis depuis une dizaine d’années portent leurs fruits aujourd’hui. Certains Igp, comme les vins de Gascogne, gagnent également à être mieux respectés.Néanmoins, on peut éviter les cuvées surchargées par le bois et « fabriquées » pour avoir une bonne note auprès de « critiques », ceci facilitant une hausse de prix incautionnable. Pour exemple, à Cahors, je me méfie des cuvées et des communications spéciales « Malbec », qui mettent trop le cépage en avant, et de quelques vins de mode. Ne vaut-il pas mieux montrer sa propre personnalité quand on en a comme c’est le cas ici ou à Madiran ?À quoi bon avoir des cépages de caractère comme le Tannat, le Cot, la Négrette ou le Gros Manseng si c’est pour « lisser » les vins et les dépersonnaliser au point que l’on ne sait plus ce que l’on goûte ? La complexité des terroirs et des climats est pourtant bien réelle dans la région, et prouve que l’on ne fait pas la même qualité, selon les aléas de la nature, au fin fond du Béarn ou dans le Lot. C’est ce qui compte, et crée la typicité. Particulièrement à Cahors ou à Madiran, mais aussi dans l’ensemble de ce grand vignoble, les millésimes 2011, 2010, 2009, 2008, 2006, 2005, 2004, 2003 et 2001 sont des réussites, le 2007 se goûte bien. Les vins ont une réelle typicité, un potentiel de garde (beaux 1999, 1995 ou 1990) où les cépages et les sols ont leur influence et une véritable présence historique.Quelques rapports qualité-prix-plaisir exceptionnels, en rouges, en blancs secs et en liquoreux (millésimes 2011, 2009, 2006, 2004, 2000, 1995 ou 1990). Toujours pas fan des « microcuvées » (en Bergerac, à Cahors, à Monbazillac…), pas typées et à des prix incautionnables, les meilleurs vignerons s’attachant ici à élever des vins racés.  Brigitte Dussert : vous avez débuté dans la Loire… Patrick Dussert-Gerber  : et j’ai toujours soutenu ces vignerons de Sancerre, de Touraine, d’Anjou ou de Saumur, où j’ai un bon nombre d’amis. Les vins de la région possèdent deux atouts considérables : un rapport qualité-prix réellement exceptionnel et une complexité due bien sûr à ces sols différents, les uns plus spécifiques que les autres.Il faut -hélas- regretter le manque de volonté d’un bon nombre d’appellations (Anjou, Touraine) où les vignerons semblent n’accorder aucun sens à une communication, pourtant essentielle aujourd’hui. Sans parler du Muscadet, où l’on a l’impression que, pour certains, l’objectif est de… s’endormir.Pourtant, ceux qui bougent (le Pays Nivernais en est le meilleur exemple) sont parvenus à hisser leurs vins dans les plus hautes sphères ! J’aime retrouver ces hommes et ces femmes qui s’attachent à défendre leur personnalité. En Anjou-Saumur, peu d’autres vins peuvent copier les meilleurs crus de la région, marqués par ces sols de tuffeau ou de roche calcaire en parfaite osmose avec les cépages Cabernet franc et Chenin, le premier s’épanouissant sûrement le mieux ici, dans cette région où il fait bon s’octroyer quelques étapes gourmandes et historiques. De Champigny à Beaulieu-sur-Layon, du Puy-Notre-Dame à Parnay, la région est riche en terroirs et en saveurs, avec des blancs très séduisants, des rouges puissants et colorés, au nez de violette comme ceux de Saumur-Champigny.Il suffit aussi de goûter un Sancerre Les Belles Dames et un autre Les Romains, un Quincy ou un Pouilly-Fumé silex pour s’assurer de la typicité des vins. Cela fait donc du bien de « sentir » la puissance des terroirs et permet de renvoyer au jardin d’enfants les vins qui poussent partout et les producteurs qui croient encore qu’il suffit de planter un cépage pour obtenir un grand vin… À Quincy comme à Pouilly, à Chinon comme à Monlouis, à Menetou-Salon ou à Cheverny, la région fourmille de vins qui possèdent une typicité exacerbée. Les cépages Chenin ou Sauvignon, pour les blancs, savent en effet se marier parfaitement avec ces sols de silex, d’argiles ou de marnes, et produit une typicité propre. Un bon nombre de propriétaires sont présents dans mon Guide depuis longtemps, ce qui prouve leur grande régularité qualitative.Si le millésime 2012 n’est pas évident, en rouges, le 2011 tire son épingle du jeu, même si les quantités ne sont pas au rendez-vous. Les 2010 et 2009 sont superbes, gras, denses, très parfumés. Le millésime 2008 est particulièrement réussi, même si, parfois, les quantités sont très faibles. Le 2007 est très difficile en rouges en Touraine comme en Anjou, et c’est la raison pour laquelle les rosés -eux- sont particulièremernt savoureux. Les blancs 2007 sont dans la belle lignée des 2006, et la typicité s’allie à un rapport qualité-prix régulièrement remarquable. Pour les blancs secs, de très grandes bouteilles en Pouilly-Fumé comme à Vouvray, à Sancerre comme à Savennières ou à Saumur, où les vins possèdent un réel potentiel d’évolution, des millésimes comme les 2004 ou 2002 se goûtant très bien actuellement.Les liquoreux sont exceptionnels, notamment en Coteaux-du-Layon, Bonnezeaux ou Vouvray, et les rouges associent charpente et fraîcheur, du plus souple (Touraine, Bourgueil, Sancerre…) au plus charnu (Chinon, Saumur-Champigny…), des vins qui s’apprécient jeunes mais savent aussi garder la distance (remarquables 2000, 1998 ou 1995). Le millésime 2002 est très réussi en blancs, difficile en rouges, et les 2004, 2003, 2001 sont savoureux. Beaux liquoreux en 2011, 2010, 2009, 2007, 2004, 2003 et 2001, et un millésime 2005, assez typé, intéressant.  Brigitte Dussert : un tour de France qui se termine par la Vallée du Rhône… Patrick Dussert-Gerber   : voilà un autre bel exemple de la race des terroirs, non ? Prenez Châteauneuf-du-Pape où le terroir se caractérise principalement par un sol extrêmement ingrat composé de gros galets roulés, amoncelés autrefois par le glacier du Rhône, qui fournissent à la vigne des conditions exceptionnelles de maturation en lui renvoyant pendant la nuit l’intense chaleur qu’ils ont emmagasinée pendant le jour. Les vins blancs offrent un bouquet floral duquel s’échappent des parfums de fleur de vigne, de lis ou de narcisse. Les rouges sont de couleur intense, puissants, de garde, et n’ont pas besoin d’artifices oenologiques pour être au sommet.Mais la richesse de la région, ce sont aussi les appellations moins connues qui bénéficient d’un rapport qualité-prix-typicité formidable : Beaumes-de-Venise, Vinsobres, Cairanne…Pour les millésimes, de 2013 à 2009, on est sûr de se faire plaisir, le 2008 est décevant, le 2007 remarquable, peut-être supérieur au 2006. Les 2005 et 2003 sont très mûrs, le 2004, très classique, le 2002, très difficile à maîtriser. Il faut prendre le temps de conserver ces vins, car on débouche de grandes bouteilles actuellement dans des millésimes comme 2005, 1998, 1995 ou 1990. »

Read more

Nvidia Shield Tablet, l’ardoise calibrée pour…

Les numériques

Nvidia poursuit sa route de la mobilité à forte teneur en puissance et jeu vidéo. Après une console portable Android Shield puissante mais sans doute trop atypique et typée « gamer » pour s’assurer un succès retentissant, la firme lance la Shield Tablet. Fait important, contrairement à la Shield, la Shield Tablet est bien disponible en France et pas seulement en import. Ici, nous avons d’abord affaire à une ardoise qui peut, théoriquement, se changer en monstre de puissance vidéoludique. Elle s’accompagne d’une manette Shield Wireless Controller, une manette sans fil en connexion Wi-Fi Direct qui reprend l’ergonomie de la Shield pour le placement des boutons… et est vendue séparément. Un étui-support, lui aussi vendu en option, est également au programme.  Côté caractéristiques techniques, Nvidia articule sa machine autour de sa puce mobile de dernière génération, la Tegra K1, quadri-coeur (plus un coeur Compagnon pour gérer les tâches basiques) cadencée à 2,2 GHz et doté d’un iGPU Kepler à 192 coeurs, censée envoyer du petit bois en continu sur des jeux vidéo optimisés. La mémoire vive associée est de 2 Go et la capacité de stockage atteint les 16 Go. Elle reste extensible via l’ajout d’une carte microSD (jusqu’à 128 Go supplémentaires). Pour l’écran, la Shield Tablet se fend d’une dalle 8 pouces IPS en 1920 x 1200 px, soit un peu plus que du Full HD. La connectivité sans fil s’effectue via Wi-Fi a/b/g/n Mimo (double bande, 2,4/5 GHz), Bluetooth 4.0 LE, et un GPS GLONASS est au menu. Rayon filaire, on trouve un port micro-USB pour le transfert de données et la recharge, mais aussi une sortie mini-HDMI 1.4a. Comme pour son concept Tegra Note 7, Nvidia ajoute aussi un stylet, fourni et rangé dans un fourreau sur l’appareil. L’ardoise est animée par l’OS Android 4.4.2, quasi nu et dans lequel Nvidia ajoute quelques logiciels dédiés aux jeux vidéo et à la créativité avec le stylet. Tournée vers le jeu vidéo, la Shield Tablet propose aussi bien de jouer en dur sur la tablette à des jeux optimisés ou bien de piocher dans la ludothèque de son PC afin de jouer en streaming (carte graphique Nvidia obligatoire). La tablette Nvidia Shield Tablet est commercialisée au tarif indicatif de 299 EUR. Une version 4G est disponible pour 349 EUR. La manette Shield Wireless Controller affiche un prix conseillé de 59,99 EURet il faut compter quelque 39,99 EUR pour l’étui-support.  ErgonomieLa Shield Tablet arbore un design sobre, efficace et qui va droit au but. Pas de fioritures, pas d’extravagance : du noir, du noir et un peu de noir, un bloc rectangulaire aux coins arrondis, un dos en revêtement gomme léger et des haut-parleurs frontaux, peut-être la seule « extravagance » du produit qui vient casser la monotonie de la face avant, un peu comme sur un HTC One.   L’appareil est solide, doté d’une finition que serait presque parfaite si son cadre avant, qui entoure toute la tablette, n’était pas un peu trop brut à notre goût. Les bords ont une fâcheuse tendance à cisailler les doigts et les paumes après un bon temps d’usage. Par ailleurs, les boutons physiques On/Off et de contrôle du volume, situés sur la tranche supérieure (en mode paysage), ne se perçoivent pas assez. Il arrive souvent de manquer son coup pour activer l’un des deux boutons. Nvidia aurait largement gagné à les faire ressortir d’un demi-millimètre de plus.   L’ardoise se manipule aisément à une main en mode portrait. Le fourreau pour le stylet, derrière le coin supérieur droit de l’écran, est solide et bien sécurisé. Quant au stylet en lui-même, il n’est pas capacitif et se tient relativement bien entre les doigts. Il est équipé d’une pointe en caoutchouc et n’a pas de bouton programmable, comme on peut en voir sur des tablettes et grands smartphones Galaxy Note de Samsung. On notera que pour la puissance théorique dégagée par la Shield Tablet, même à plein régime, l’ardoise ne chauffe pas outre mesure. Après une heure de jeu, l’angle supérieur droit du produit chauffe ainsi légèrement, mais ne gêne absolument pas la prise en main.   Concernant la manette Wirelless Controller, nous vous renvoyons vers son test (ou via sa fiche ci-dessous), mais sachez qu’elle dispose d’une excellente prise en main et se rapproche de l’expérience vécue avec les manettes de Xbox 360 et Xbox One.Quant à l’étui, qui se fixe via deux petits patins magnétiques sur un côté de la tablette, il faut tout de même garder à l’esprit qu’il affiche une solidité toute relative. Ses charnières sont fragiles. Nvidia aurait dû opter pour un système magnétique sans parties mécaniques, comme pour les Smart Cover d’Apple pour iPad. EcranLa dalle IPS un-peu-plus-que-Full-HD de la Shield Tablet est un régal pour les yeux. Son seul point « faible » est de proposer un rendu colorimétrique à la fidélité, en moyenne, toute relative. Avec un delta E moyen de 4,9, elle n’est pas ridicule, mais se place derrière des iPad et tablettes Samsung, sur le postulat de ce résultat. En revanche, en regardant de plus près, on se rend compte que seuls un bleu et un magenta un peu trop prononcés et expressifs sont responsables de ce qui reste un bon score. En effet, tout le reste du spectre colorimétrique affiche une excellente fidélité, autour de 3 de delta E moyen. La température des couleurs frôle la perfection (6371 Kelvins) et le noir affiche une profondeur rare.  Le contraste moyen est de 1130:1, soit l’un des meilleurs résultats dans ce domaine. La luminosité maximale propose toutefois 411 cd/m². Quelque 100 cd/m² de plus n’eurent pas été de trop, mais on peut tout de même utiliser la Shield Tablet en extérieur sans avoir à déchiffrer l’affichage. La dalle se montre également très réactive, puisqu’elle dispose de l’un des retards tactiles les plus contenus du secteur, avec 37 ms seulement. Si l’iPad Air n’avait pas pulvérisé le record IPS avec ses 9 ms, Nvidia serait roi du retard tactile mesuré sur dalle IPS. Quant à la lisibilité et précision d’affichage, une définition comme celle-ci sur un écran de 8 pouces fait forcément la joie de la rétine. Le confort de lecture est indéniable et tout le contenu multimédia en profite. Interface et navigationPas de surprise graphique avec Nvidia, c’est un OS Android 4.4 KitKat quasi dans son plus simple appareil qui s’offre à nous. On trouve ainsi tous les outils habituels de Google pour les produits mobiles Android avec YouTube, Gmail, Hangouts, Play Livres/Jeux/Films/Musique, le navigateur Web Chrome, le magasin Play Store pour télécharger des applis Android, ou encore Drive et Google+. Quelques fonds d’écran dans les tons dominants de la firme sont présents, ainsi que des applications de son cru. Les deux plus importantes sont Dabbler et Shield Hub.  La première est une application de dessin liée au stylet. Sa particularité est d’utiliser à plein rendement les capacités de la puce Tegra K1. Les e-peintres en herbe peuvent ainsi y réaliser des toiles numériques avec des effets saisissants de peinture à l’huile, des expositions variables de la lumière, des effets de relief en fonction de la quantité de peinture appliquée ou de dégradé au fusain. Pour la peinture, la gravité et la quantité d’eau virtuelle entrent aussi en ligne de compte. Dans ces conditions, même un gribouillage devient fascinant à voir prendre forme, surtout que l’interaction avec le stylet est plutôt réussie question réactivité et suivi. Le Shield Hub est la porte d’entrée vers l’intérêt principal de la Shield Tablet : le jeu. Dans cet espace, Nvidia a regroupé ce qu’elle appelait il y a peu de temps encore « TegraZone » (centralisation des applications et jeux du Play Store Android optimisés pour ses puces Tegra) et qui regroupe désormais Boutique, la fonction GameStream pour jouer à ses jeux PC en se connectant à distance, un recensement des applis et jeux Android et enfin un volet consacré à l’actualité de l’univers Nvidia/Shield/Tegra. Un Hub bien pensé, clair, dynamique. On apprécie tout particulièrement la présentation du GameStream avec un défilement des jaquettes des jeux disponibles sur le PC distant.Rayon performances, nous n’entrerons pas dans un comparatif de chiffres musclés à base de benchmarks , mais sachez tout de même que la puce Tegra K1, comme nous l’avions déjà constaté sur la tablette MiPad de Xiaomi – premier produit du marché à avoir adopté cette puce –, se hisse tout en haut de la montagne des résultats des différents tests de performances brutes. Néanmoins, la grande différence avec la MiPad, c’est que cette Shield Tablet a été conçue par le faiseur de la puce surpuissante et qu’il n’engage pas une interface peu optimisée. En découle, de fait, une utilisation d’une incroyable fluidité dans tous les usages, que ce soit pour naviguer entre les différents bureaux Android, les applications, les transitions, les jeux. Les seuls petits temps morts se situent dans l’ouverture de Dabbler et la navigation au sein du Nvidia Hub, mais plusieurs paramètres autres que la puissance même de la machine entrent en compte ici.À noter que la Shield Tablet devrait recevoir dans peu de temps sa mise à jour vers Android 5.0 Lollipop. Une version qui devrait également être accompagnée de nouveautés logicielles propres à Nvidia, si l’on en croit la communication de la marque autour de cette future mise à jour. Nous avons hâte de tester cela.  La navigation Web est excellente. L’expérience est fluide et rapide dans tous les compartiments (chargement des pages, défilement vertical, jeu entre les onglets, zoom au besoin), quel que soit le navigateur entrepris.  La lecture vidéo et multimédia dans son ensemble dépend pour beaucoup de l’application tierce que vous installerez, même si les lecteurs basiques d’Android se montrent de plus en plus permissifs côté formats pris en charge. Pour la vidéo en particulier, la Tegra K1 mange de la Full HD à gros encodage au petit déjeuner et peut même pousser du contenu 4K vers un téléviseur compatible. Abordons maintenant le point d’orgue de la Shield Tablet, ce pour quoi elle a été conçue, malgré la stratégie commerciale qui vise à en faire aussi une tablette normale sans accessoire. Avant toute chose, soyez au fait que la manette Wi-Fi et le support nous semblent indispensables pour profiter au maximum du potentiel de la bête. Toutefois, une manette Bluetooth pour Android peut faire l’affaire, mais la réactivité monstrueuse du Wireless Controller est un véritable atout.  Sur le jeu purement Android, la Shield Tablet se place sans mal comme le meilleur produit du marché Android, d’autant plus que certains titres phares, difficilement jouables auparavant sur plates-formes Tegra, comme Real Racing 3 , se montrent aujourd’hui en pleine(s) forme(s). De plus en plus de jeux sont optimisés pour Tegra et l’on sent un véritable gain de performances. Par exemple, à titre de comparaison, le jeu Skylanders Trap Team , plutôt joli et coloré sur tablette, s’exprime avec plus de détails et d’effets sur Shield Tablet que sur iPad Mini Retina. Par ailleurs, les titres non-optimisés tournent comme une horloge et nous n’avons jamais relevé de ralentissements.  Passons à GameStream, qui permet de jouer à sa ludothèque PC sur l’écran de la Shield Tablet, en streaming donc. Pour cela, il faut disposer sur sa machine principale d’une carte Nvidia GForce 650 au minimum et passer par l’application de gestion des jeux GeForce Experience. Le PC doit être allumé et connecté au réseau. La tablette peut scanner un réseau en local pour trouver la machine, mais nous avons connu plusieurs échecs.Mieux vaut alors entrer directement l’IP de l’ordinateur. La connexion est quasi immédiate et le Nvidia Hub charge les vignettes de la ludothèque PC. Il suffit de tapoter le jeu souhaité et la tablette lance le titre à distance. Notez qu’il s’agit d’un accès distant et que par conséquent le jeu tourne aussi sur le PC en simultané. La réactivité est étonnante.  Nous avons noté très peu de latence et l’expérience de jeu est intacte. Quelques micro-ralentissements surgissent à de rares occasions, mais elles sont associées en majeure partie à l’efficacité du réseau du moment. Un peu plus de 120 jeux sont compatibles GameStream et la liste, extensible, est disponible sur le site de Nvidia. Il est également possible de jouer sur son téléviseur en déportant l’affichage. En Wi-Fi, le signal plafonne à 720p, pour des raisons évidentes de fluidité. La Full HD ne s’obtient qu’en liaison réseau filaire via un adaptateur USB/Ethernet.   AutonomieAvec une batterie de 5200 mAh, Nvidia ne propose pas, sur le papier, un accumulateur de compétition pouvant porter sa tablette en des sommets d’autonomie mobile. Sur le terrain, cela se vérifie quelque peu malheureusement. En usage basique et mixte (navigation dans l’OS, surf Web, vidéo, un peu de jeu, quelques applications) de type tablette, la Shield Tablet expire en moyenne peu après 8h d’utilisation, tandis qu’en streaming vidéo continu, l’ardoise rend les armes après 6h à 6h30 de lecture. Des performances moyennes, plutôt correctes et loin d’être ridicules. Toutefois, c’est sur le jeu vidéo que le bât blesse. En effet, en jeu pur, la Shield Tablet ne dispose, de base, que de 2h30 à 3h d’autonomie, en fonction du type de jeu, et cela, que l’on soit en GameStream ou sur des jeux mobiles optimisés ( Trine 2 , Skylanders , Half Life 2 , Portal …).  Il est tout de même possible de gagner entre 30 minutes et 1 heure supplémentaire, ce qui n’est pas rien à ce niveau et vu le plaisir procuré par la partie jeu vidéo de la bête. Pour ce faire, il suffit de se rendre dans la section de Paramètres dédiée à la gestion des ressources allouées aux différentes applications et de réduire, par exemple, la puissance de la machine graduellement, si cela est possible. Sur un jeu comme Skylanders Trap Team , joli mais pas aussi gourmand qu’un Trine 2 , il est ainsi possible de jouer sans saccade (ou si peu) en n’utilisant que deux coeurs et à 70 % de leur capacité, sans perdre en qualité graphique. De quoi gagner 1h de jeu sur une partie.De petits réajustements çà et là, par tâtonnement, permettent de consolider l’autonomie à 3h30 ou 4h de jeu. Tout dépendra tout du moins des usages : en direct sur la tablette avec la manette, sans manette, en Gamestream, en écran déporté sur le téléviseur, en filaire ou sans fil…La veille est correcte sans être dans les plus solides du marché. On perd ainsi une petite quinzaine de points de batterie dans une journée d’inactivité. La recharge, elle, requiert des cycles complets d’environ 2h30.PhotoLe capteur 5 Mpx situé à l’arrière n’est pas vraiment une réussite. Au mieux pourra-t-il dépanner en cas de dernier-dernier-recours. Les prises de vue sont fades, tirent vers le rouge et le jaune et l’ensemble s’habille d’un bon grain. Le déclenchement est correct en termes de vitesse, si tant est que l’on n’enchaîne pas les clichés, le déclencheur saturant vite après 4 photos. Pour une prise unique, le déclenchement reste rapide. L’interface découle de celle vue sur la Tegra Note 7. Complète mais assez cryptique pour un usage commun, elle fait le job mais paraît peu pertinente face à l’intérêt réel de ce capteur.   En revanche, Nvidia a très bien travaillé son capteur frontal et compense largement les faiblesses du premier. Lui aussi est en 5 Mpx. Il propose une plus belle accroche de la lumière, bien moins de bruit, presque pas de latence et une réactivité remarquable. Des caractéristiques qui en font un excellent outil pour des appels en visio via Skype ou Hangouts, mais aussi un très bon outil pour des sessions de Twitch. Si vous souhaitez partager vos émotions avec vos abonnés durant vos exploits sur votre chaîne vidéoludique, la Shield Tablet vous épargne l’ambiance vielle webcam fatiguée.

Read more

La mondialisation de la perversion narcissique…

Agora Vox

« La France ne le sait pas, mais nous sommes en guerre avec l’Amérique. Oui, une guerre permanente, une guerre vitale, une guerre économique, une guerre sans mort apparemment [...] et pourtant une guerre à mort. » [1]Ce qu’a voulu signifier par là l’ancien Président François MITERRAND dans cette confession politique, c’est que toute guerre quelle qu’elle soit, est également précédée d’une guerre psychologique menée par le ou les représentants du pouvoir hégémonique aux commandes.Compte tenu de la marche impérialiste que les États-Unis mènent ouvertement à « l’insu de notre plein gré »[2], il n’est absolument pas étonnant que les premiers lanceurs d’alertes nous ayant annoncé l’avènement de l’ère du narcissisme pathologique ou du narcissisme pervers soient d’origine américaine.En France, et jusqu’à très récemment, il n’existait guère que la théorie de la perversion narcissique qui étudiait les mécanismes d’atteintes narcissiques précoces donnant lieu à l’âge adulte à de sévères troubles de la personnalité induisant une pathologie du pouvoir[3].La plupart des personnes – professionnelles ou profanes – discourant sur le thème de la perversion narcissique n’en ont eu connaissance qu’au travers du concept de pervers narcissique, archétype moderne du diable, du vampire ou de toutes autres représentations mythiques incarnant la figure du Mal absolu dans de nombreux récits historiques d’origines culturelles très diverses (cf. la citation du Dr Robert DREYFUS en conclusion de l’article Comment reconnaître un pervers narcissique « manipula-tueur »* ).Ce n’est pourtant pas faute de le répéter : dans la théorie de la perversion narcissique, le pervers narcissique, premier nommé, est le nom donné par son concepteur au mouvement pervers tel que présenté lors de mon premier article abordant le sujet sur ce site.Paul-Claude RACAMIER, l’inventeur de cette théorie, commence d’ailleurs à la présenter en prenant une précaution d’usage qui n’a quasiment jamais – sauf à de très rares exceptions près – été entendue  : « le plus important dans la perversion narcissique, c’est le mouvement qui l’anime et dont elle se nourrit  » [4] . Préalablement à son exposé, il avait également pris soin d’indiquer que ce mouvement n’était «  rien de plus difficile à comprendre   [et] rien de plus important à connaître dans les rouages interpsychiques des familles, des institutions, des groupes et même des sociétés . » [5]Près de 30 ans après le premier exposé concernant cette théorie, force est de constater que malgré toute la prudence rhétorique que l’on puisse prendre en matière de présentation de concepts novateurs à même d’explorer et d’exposer le fond du problème de nos interrelations humaines (le côté « rien de plus important à connaître » de la théorie), et donc de la violence dans notre société, il faut croire qu’il en restera toujours quelques-uns pour s’attacher à déformer le sens des concepts affichés[6].Toutefois, s’agissant tout de même d’une théorie complexe que très peu de professionnels connaissent véritablement[7], il faut savoir être reconnaissant envers les chercheurs et les auteurs qui ont parfaitement su traduire la richesse de cette théorie en une explication cohérente du monde en crise tel que nous le vivons à l’heure actuelle.Ils sont de plus en plus nombreux et nous ne pouvons que nous en réjouir. C’est pourquoi j’ai choisi de vous présenter le texte suivant extrait d’un ouvrage remarquablement étayé par de très nombreuses références. Son auteur, Olivier LABOURET est médecin psychiatre en hôpital public, président de l’Union syndicale de la psychiatrie, membre de la LDH et d’ATTAC, très engagé dans la lutte contre les dérives « totalisantes » de sa profession.Il a publié en 2008 un essai intitulé La dérive idéologique de la psychiatrie – Quand le Président se prend pour un psy, c’est la France qui devient folle , aux éditions Érès, Toulouse, et dans son dernier ouvrage Le nouvel ordre psychiatrique – Guerre économique et guerre psychologique , il approfondit son analyse et constate l’accélération de la dérive néolibérale de sa profession – mouvement perversif – qui met en péril nos libertés individuelles et sociales et compromet notre santé mentale à tous.Autrement dit, Olivier LABOURET dénonce courageusement l’usage à des fins utilitaires et utilitaristes du métier qu’il exerce. Dans leur vision néolibérale dogmatique en vogue dans les cercles du pouvoir, nos dirigeants élus sont en train de pervertir la psychiatrie en la détournant de sa mission première qui vise le bien-être des malades et de la société pour en faire une discipline qui tend à réprimer, asservir et contrôler des foules.Cela devrait tous nous alerter, car nous avons déjà connu cela dans un passé pas si lointain et c’est dans le but de propager cet avertissement qu’Olivier LABOURET m’a autorisé à reproduire ici un chapitre entier de son dernier ouvrage qui synthétise et diagnostique le mal qui ronge nos sociétés. De fait, il rejoint par là la conclusion d’analystes contemporains étrangers qui nous mettent en garde sur les dangers qu’encourent désormais les démocraties occidentales : « Pendant des années, j’ai cru que la pérennité et la consolidation de la démocratie allaient permettre d’en finir avec la soumission irrationnelle des masses à l’homme fort et puissant, et qu’un plus grand développement de la conscience permettrait de contenir la volonté de pouvoir et d’empêcher qu’elle ne corrompe toute la citoyenneté. Je pensais que le pouvoir pouvait se comprendre comme un mécanisme menant au consensus. Aujourd’hui, ce n’est pas possible, et je ne peux plus que m’étonner devant les assauts permanents du pouvoir coercitif contre l’ordre institutionnel garant du respect des droits humains fondamentaux. Ma perplexité grandit quand je vois l’enthousiasme populaire pour des leaders que dans les vieux manuels de psychiatrie on décrivait comme des  desalmados . Il convient donc d’insister sur la réponse donnée par JUNG au correspondant du journal  Mishmar « Une éducation pour une plus grande conscience ! Prévention… de la psychologie des masses ! » Il est temps que la psychologie analytique sorte des cabinets pour aller dans les rues . » [8]Et il n’y a malheureusement aucune autre solution. C’est-à-dire que nous nous en sortirons ensemble ou nous courrons tous à notre propre perte.Bonne lecture…  La mondialisation de la perversion narcissique  ( Le nouvel ordre psychiatrique , pp 225-270) :« Jouir à tout prix » : après Christopher LASCH prophétisant il y a plus de trente ans son avènement, beaucoup d’auteurs se sont penchés, tel Charles MELMAN[9], sur la métamorphose contemporaine de la subjectivité comme perversion narcissique propre au néolibéralisme. Le laisser-faire économique doit lâcher la bride aux pulsions égoïstes des individus, dont la confrontation fera naturellement l’intérêt collectif. Ainsi s’instaure, explique Wendy Brown, la nouvelle gouvernementalité d’une subjectivité calculatrice et rationnelle, autrement dit profiteuse et prédatrice[10]. Une semblable néosubjectivité réalise une économie collective perverse, où la négativité et l’altérité n’ont plus leur place, dans la grande confusion qu’impose le règne de la loi du marché et de la technoscience : voilà la perversion ordinaire, selon Jean-Pierre Lebrun[11]. Cette confusion est précisée par Pierre DARDOT et Christian LAVAL : « Le sujet néolibéral est produit par le dispositif « performance/jouissance » [...]. Le double sens d’un discours managérial faisant de la performance un devoir et d’un discours publicitaire faisant de la jouissance un impératif. » [12] Le néolibéralisme nous caresse dans le sens du désir, et c’est ainsi qu’il nous entraîne dans une compétition économique outrancière : Dany-Robert Dufour a montré la parenté qui existe entre les conceptions d’Adam SMITH et celles du marquis de SADE, réduisant l’homme à un objet d’échange, et rappelé la collusion entre le marketing et une conception objectale dévoyée, comportementaliste, de la psychanalyse[13]. On a vu en effet que la propagande marchande a été élaborée aux États-Unis par le neveu de FREUD, Edward BERNAYS, pour lequel elle vise sciemment à exciter les désirs érotiques, faisant ainsi oublier la crise économique par la persuasion psychologique[14]. La cité perverse, c’est ce système économique débridé devenu universel, dans lequel ne compte que la satisfaction pulsionnelle égoïste, au détriment de toute considération altruiste. Historiquement, culturellement, la perversion narcissique est donc consubstantielle du néolibéralisme : ils se nourrissent l’un de l’autre, jusqu’à l’écoeurement. Mais en réalité, pour le seul bénéfice de la loi du marché, le comportement individuel est de plus en plus normé, par une influence propagandiste et bureaucratique à l’origine d’un conformisme pathologique généralisé, vidant la vie sociale de toute confiance, de toute humanité. La fausse liberté d’un désir sans limites vantée par le néolibéralisme est une vraie servitude, où la promesse de la possession matérielle et du bonheur psychologique épuise finalement plus qu’elle n’attire : l’illusion narcissique est profondément mortifère… Ce paradoxe révèle une société non plus seulement paranoïaque, mais perverse, où le cynisme est roi : l’ère du mensonge, où le déni sadique de l’altérité signe inéluctablement la fin de l’homme. La personnalité culturelle perverse narcissique contemporaine Le narcissisme pathologique est un amour de soi excessif, dont la fascination mène d’ailleurs à l’effondrement de soi : Narcisse meurt au bout du compte, captif de son reflet. D’après le DSM-IV, en 1996, les principales caractéristiques diagnostiques de la personnalité narcissique étaient les suivantes : les individus qui en sont atteints ont « un besoin excessif d’être admirés », avec des fantasmes de succès sans limites ; ils « pensent que tout leur est dû » et sont souvent méprisants et jaloux . « Ils ont tendance à nouer des relations [...] seulement si cela leur est utile pour atteindre des objectifs » , et cela « peut aboutir à l’exploitation consciente ou non des autres » [15]. L’utilité, l’exploitation des ressources humaines au service du succès et des objectifs : on croirait lire un projet de management ! Pourtant, le rapport du Centre d’analyse stratégique sur la santé mentale positive, déjà abondamment cité, définit depuis 2009 la santé mentale comme la capacité à profiter des opportunités pour s’adapter à une situation à laquelle on ne peut rien changer. Mieux : reprenant une définition canadienne, la santé devient « la capacité [...] à améliorer notre aptitude à jouir de la vie » [16] ! En profiter, être opportunistes, se conformer et jouir : tout le programme de la perversion narcissique nécessitée par la mondialisation néolibérale est contenu dans ce rapport stratégique gouvernemental, érigeant en modèle de comportement ce qui était auparavant une pathologie, et justifiant la position sadienne ! Pour saisir cette transformation historique, il faut se pencher sur la psychopathologie, dont on a déjà donné quelques aperçus d’inspiration phénoménologique. La division du sujet par le langage inscrit le manque au coeur de l’existence humaine. C’est dans cet espace symbolique que se noue le désir, comme représentation du manque, et dont le phallus est le signifiant. Mais il manque naturellement à combler le manque : par définition, le désir reste inassouvi, puisqu’il meurt dans son assouvissement. La perversion est le déni de cette impossibilité, de cette vulnérabilité fondamentale de l’être : l’objet n’est plus sainement symbolique, transitionnel, il est fétichisé, incorporé, dans l’illusion que la jouissance phallique puisse annuler la castration, et vaincre le temps[17]. Mais ce faisant, l’objet est détruit en tant qu’objet propre : la jouissance narcissique entretient un rapport singulier avec le désespoir, et la possession avec la mort. Objet chosifié de perversion sadique et/ou sexuelle, l’autre-sujet, en particulier, est possédé pour être détruit. Purement utilitaire, réduit à un objet de consommation, une simple marchandise, l’autre n’existe qu’en tant qu’il me sert, instrument de ma seule jouissance. N’oublions pas dès lors que le déni se dénie : pour échapper à la destruction par l’objet qu’elle détruit, la perversion feint de s’en séparer. Elle opère par clivage, ambivalence, double langage : le mensonge à soi lui est indispensable, comme la canne l’est à l’aveugle. Nous sommes tous des pervers polymorphes de naissance, la frustration du désir nous aidant à grandir, mais l’enfant-roi est appelé à régner dorénavant à vie dans un système où l’appropriation de l’objet vient faire taire l’interdit que symbolisait la triangulation oedipienne. Car c’est la « soustraction de jouissance » [18], ce manque à être fondamental de l’être humain que tente d’éluder, de supprimer vainement, jusqu’au bout, le fétichisme de la marchandise, la possession matérielle, comme métaphore de la possession phallique. Dominer l’autre, posséder plus, comme vaine tentative de suturer la plaie ouverte au coeur de la condition humaine, pourtant constitutive du désir et de toute vie sociale. Mais pour nier quelque chose, il faut bien en avoir eu conscience préalablement : le sujet néolibéral est un pervers narcissique tellement fasciné par lui-même et ses objets de convoitise qu’il en oublie toute la souffrance dont il sait qu’elle l’entoure et l’imprègne, mais n’en veut rien savoir. De fait, le désir égoïste de s’enrichir du capitalisme spéculatif repose entièrement sur l’illusion autoconvaincante de la réalisation du désir. La course au profit est une perversion narcissique de la saine existence sociale : il existe un lien dialectique entre psychologie et économie, nouveau trouble de la personnalité et consommation, quête du bonheur et spectre du malheur. Le problème est que ce système pathologique nous aspire tous comme dans un maelström, dans sa fuite éperdue, son déni absolu qui signe aussi sa fin. DUFOUR comme DEJOURS ont montré comment le néolibéralisme nous contamine, nous obligeant à adopter un comportement pervers pour espérer grappiller quelques miettes, ne pas être oublié, éliminé en chemin… Mais comment fait-il pour nous entraîner dans cette spirale insensée de la jouissance et de la destruction ?La propagande marchande par la publicité, comme on l’a vu, est le principal vecteur de l’autoexcitation narcissique : renouant avec l’omnipotence des désirs infantiles, elle met tout objet à portée de possession et de jouissance. D’ailleurs, les instituts de recherche des motivations ont dépensé des dizaines de millions de dollars dès les années 1950 pour conclure qu’un produit « doit flatter le narcissisme du consommateur, lui apporter de la sécurité émotive, lui assurer qu’il est méritant, l’inscrire dans son époque, lui donner un sentiment de puissance, d’immortalité, d’authenticité et, enfin, de créativité » . De cette façon, conclut Franck MAZOYER, le produit ne sera pas acheté pour son utilité réelle, mais « pour le « manque » qu’il [promet] de combler » [19]. Parmi les médias dominateurs de la propagande marchande, la télévision, plus spécialement, vouée à la réussite et à la séduction individuelle, au culte du corps et de l’argent, est le mode de diffusion privilégié d’une telle autofascination perverse. Elle fait vivre en direct le bonheur sur télécommande, et permet d’éteindre toute contrariété, toute altérité. Le miroir télévisuel me place ainsi au centre de l’univers, me faisant admirer et intérioriser imaginairement le « compte de fées » à la fois mièvre et sordide qu’il renvoie, où tout sourit aux meilleurs. Dans sa déclaration tristement célèbre, Patrick Le LAY, le pdg de tf1, affirmant que son métier consistait à vendre le cerveau à la publicité, avait ajouté cette phrase terrible : « La télévision, c’est une activité sans mémoire. » [20] Ainsi préfère-t-on s’enfoncer dans la démence que d’affronter la souffrance et la mort : le mirage publicitaire, « l’emballement d’un narcissisme sur écran » [21], c’est la maladie d’Alzheimer avant l’heure. Je suis la nouvelle star d’un spectacle sans passé, sans fin et sans limites : le monde se trouve réduit magiquement à être un prolongement de ma seule volonté, de mon seul désir égocentrique. Du voyeurisme au sadisme, cette violence perverse est à la démesure d’une mort présentée comme un jeu, d’une information réduite à un produit publicitaire, où la sensation terrasse la vérité, où l’horreur même n’est plus qu’une distraction. La jouissance immédiate annule ainsi toute profondeur et toute durée, dans l’écran plat d’un monde où tout devient consommable, interchangeable, équivalent, sans suite. La réalité même n’est plus que virtuelle, dissoute dans un morcellement kaléidoscopique dont nulle valeur éthique ne peut plus recoller les morceaux. La télévision et les autres industries culturelles sont finalement « des machines à liquider le soi » , conduisant « à la ruine du narcissisme et à la débandade économique et politique » [22]. Et plus je me sens vide, plus j’ai besoin de me remplir en consommant ; plus je perds mon identité, plus j’ai besoin de m’approprier les objets qui m’entourent : la propagande marchande est le dealer d’une toxicomanie de masse avilissante. SZTULMAN confirme qu’elle détruit le principe de réalité : « Il ne me reste que le plaisir, la jouissance illusoire, dangereuse, mortelle du « tout, tout de suite » si bien exploitée par les techniques marchandes. » [23] Tout particulièrement, la « paranoïa sociale » de la précarité généralisée pousse à fuir la mélancolie dans « l’hédonisme de désenchantement qui consiste à profiter de la vie au maximum » [24].Nous avons défini ce mouvement d’autoexcitation hyperactive, synchrone d’un temps politique et psychologique de plus en plus rapide, saccadé et superficiel, par les termes de zapping et d’hypnose[25] : ils traduisent mieux que tout autre la destruction contemporaine de toute conscience et de toute temporalité, l’entreprise perverse de déréalisation et de dépersonnalisation à l’oeuvre. Et ce mouvement s’exprime par une ivresse, une exaltation, une fascination devant tous les objets de jouissance dont la fonction est justement de favoriser le déni de la réalité, mouvement que la télévision (et autres objets fétiches technologiques, à l’exemple des téléphones portables ou des jeux vidéo) reproduit continuellement et de plus en plus vite… La subjectivité narcissique contemporaine, c’est celle de la fuite virevoltante, qui s’accélère et s’éparpille, qui permet d’oublier, comme l’alcool, de s’oublier même, de soi-disant « faire la fête », dans une parfaite et factice communion avec l’objet. Le sujet néolibéral est comme un derviche tourneur : le vertige le conduit à la félicité. Dans le tourbillon hédoniste de la consommation, il répète le plus souvent possible la jouissance orgastique de l’instant. Cette sarabande dans laquelle nous entraîne la promesse du bonheur consumériste n’est évidemment pas sans signification psychiatrique. On sait, depuis Eugène MINKOWSKI, que la fuite des idées du maniaque, qui dépense d’ailleurs sans compter, est une accélération du temps vécu, qui lui permet de fuir devant la dépression[26]. Toutes les « nouvelles » personnalités impulsives, hystériques, hypomaniaques, addictives, limites, « faux self », hyperactives, émotionnellement labiles, etc., ne sont ainsi vraisemblablement que les écarts infimes d’une norme narcissique largement répandue sinon universelle. Le trouble déficit de l’attention/hyperactivité (tdah), en particulier, traduit la toxicité de ce commerce de l’excitation contemporain dû au « capitalisme pulsionnel » [27], pour lequel les « psychotechnologies » (STIEGLER) ont capté l’attention du spectateur-consommateur, jusqu’à la fixer aujourd’hui neuroscientifiquement dans une causalité génétique. Car au bout du compte, cette perversion narcissique culturelle contemporaine n’est pas une vue de l’esprit : on est tous entourés de la multitude de ses acteurs symptomatiques, il suffit d’ouvrir les yeux (et même souvent de se regarder dans la glace) ! Des personnes charmeuses, mais caractérielles, ambivalentes, mais exigeantes, sans attaches, mais passives-dépendantes, frivoles, mais convaincues, qui n’en font qu’à leur tête, mais ne dérogent jamais. Fascinées par la mode et par leur corps, elles s’abandonnent avec la constance du papillon au butinage d’une consommation effrénée : télévisuelle et technologique, festive et amoureuse, toxique et alcoolique. M’as-tu-vu et envieuses, prêtes à tout pour arriver à leurs fins, leur rêve petit-bourgeois est de posséder à leur tour une belle maison avec piscine, la grosse voiture, les vacances dans les îles… Leur hypersexualité n’a d’égale que leur insatisfaction : les relations sont multiples, jetables, sans un regard, sans un regret. Excessives et clivées, puériles et cruelles, ces personnalités éternellement instables détruisent tout autour d’elles sans même paraître s’en douter. Jouir sans entrave, et nier toute contingence : tout est dû, tout est permis. Être le nombril du monde : on le désirerait tous ? La perversion du pouvoir Petit ou grand pervers, voici comment le leurre publicitaire et médiatique me piège dans l’illusion du plaisir immédiat et de la prodigalité. Le fétichisme de la consommation ostentatoire et envieuse me donne le sentiment d’exister[28]. Ce faisant, le système néolibéral me compromet, me rend complice de sa décrépitude, et m’embrigade dans sa coupable malignité. À travers ses objets de jouissance qui pénètrent en moi et me font perdre la tête, confirme effectivement Cynthia FLEURY, « le capital s’inscrit dans une morale sadienne. » [29] Comme un vice sans fin, le goût du luxe est indissociable de la luxure : une sexualité accomplie devient le but dévorant de l’existence, alors qu’elle devrait n’en être que le fragile symbole. Ainsi que le soutient Hervé KEMPF, « l’alliance du sexe et de la télévision, puis d’Internet, est un des outils les plus puissants utilisés par le capitalisme pour aliéner ses sujets. Une économie libidinale sortie de ses gonds est la réponse à la frustration d’individus toujours en manque de biens dans la course ostentatoire » [30]. Je dois prouver que je suis le meilleur, donc posséder plus que les autres, et posséder les autres. L’imitation et l’envie sont les ressorts de cette propagation du mythe du succès : « Les moyens de communication de masse [...] donnent pâture aux rêves narcissiques de gloire et de renommée, encouragent l’homme de la rue à s’identifier aux gens célèbres, à haïr le « troupeau » et lui rendent ainsi difficilement tolérable la banalité de l’existence quotidienne. » [31] Le besoin de puissance, la volonté de dominer sont contagieux[32] : la grande perversion contemporaine, la chosification de l’autre érigée en système, c’est cette jouissance autoexcitante néolibérale devenue générale. Il n’y a pas de limite morale à l’enrichissement : le culte de l’argent roi domine cet univers de paillettes et de gloire. C’est parce que « le millionnaire » est un jeu qui touche des millions de spectateurs envieux que quelques milliardaires sont laissés libres de régenter le monde. Même si chacun sait dans le fond, bon sens populaire en sourdine, que tout ce qui brille n’est pas d’or, et que l’argent ne fait pas le bonheur… De la même manière que je m’admire sans fin dans le miroir spéculaire de la télévision et de la consommation, la spéculation financière est l’image du bonheur à venir, sur le malheur des autres. À ce « jeu de la mort » du libre échange mondialisé, seuls les plus riches s’en sortiront. Car tant pis pour le reste du monde si la réalité de l’éclatement de l’économie mondiale dépasse aujourd’hui la fiction de la bulle des subprime . « L’absence d’accès à la culpabilité, dimension de l’immaturité et de la perversion narcissique [...], explique l’apparent cynisme des dominants » [33] : le pouvoir d’achat de l’oligarchie conforte toujours plus sa volonté de régner sans partage. Chez les grands délinquants financiers, comme l’explique la juge Isabelle PRÉVOST-DESPREZ aux pourfendeurs du « président des riches », le rapport à l’argent « agit comme une drogue, un substitut de puissance qui atrophie la pensée » [34]. Mais cette grande délinquance n’est que la partie visible de l’ultime perversion narcissico-financière, « le devenir-mafieux du capital » [35]. Car c’est bien sans conteste Nicolas SARKOZY qui porte le plus haut l’étendard de la jouissance extraordinaire apportée par le pouvoir et par l’argent. Éternel enfant-symptôme hyperactif, le très médiatique chef des affaires de l’État est le modèle identificatoire idéal du mythe égoïste mondialisé de la possession à tout prix, de l’enrichissement personnel à la portée de tous. « J’aime l’argent, confiait-il quelques mois après son élection fêtée au Fouquet’s avec ses amis du club oligarchique, [...] et je n’ai aucun complexe à le revendiquer » [36] : le premier homme de France, celui qui a le mieux réussi, sans aucun doute, n’est jamais que le représentant histrionique, l’incarnation de « la perversion devenue structurelle » [37] du système néolibéral. Chef-manager autoengendré vendant à longueur de discours le mérite, le travail, la performance – il suffit d’y croire -, il veut absolument modeler les Français sur sa morale toute personnelle du capitalisme : « Le monde change à une vitesse stupéfiante [...]. Mon devoir c’est de conduire le pays pour qu’il s’adapte à la compétition mondiale. » [38] Mais son devoir n’est certainement pas d’ériger pour ce faire, en pompier-pyromane, sous le discours du Maître de la médiacratie[39], le cynisme en vertu, en multipliant les affaires, les mensonges, les provocations. La mise en scène de la politique-spectacle a heureusement ses limites : si l’on assistait autrefois au lever de Louis XIV, la téléréalité ne va pas encore jusqu’à nous faire contempler en direct le coucher du « président-soleil »[40], représentant d’un pétainisme sécuritaire qui ne vend plus que de la poudre aux yeux. Quant à la chute tout aussi médiatique du président du fmi, elle confirme que la jouissance phallique domine le monde, jusqu’à sa débandade finale : la perversion du système néolibéral mondial ne pouvait pas s’incarner en autre chose qu’un notoire sex addict , que la présomption d’innocence ne rend pas moins coupable de plans d’austérité réduisant des peuples entiers à l’impuissance… Inévitablement, les possédants les plus riches, maîtres du monde et du cac 40, sont des paranoïaques-pervers phallocrates, qui se prennent au jeu mortifère du toujours plus, sur le dos de leurs semblables, méchamment opprimés et déprimés, et en jouissent vraiment. S’il reste une morale, elle sera toujours plus représentée par une « soubrette » guinéenne et par Reykjavik que par Warren BUFFETT et Wall Street…Il n’y a plus de limite entre le sexe, l’argent, le spectacle et le pouvoir. Ni symbolique, ni temporelle. Car la banalité du mal de la perversion narcissique se propage depuis cinq ans, et de plus en plus vite, dans toute la société : son support est médiatique, son but est de conformer les masses au marché, notamment technologique, pour le plus grand profit de la concurrence. Pour cela, indissociable du discours de propagande que nous avons déjà étudié, la perversion gouvernementale vise à manipuler, à contraindre chaque Français, par la persuasion cognitive et comportementale, de se ranger à cette rationalité néolibérale au pouvoir. La garde rapprochée des ministres, par le même double langage convaincant que leur maître, diffuse ainsi la bonne parole visant à annuler toute liberté, toute divergence : il n’est question que d’efficience, de compétitivité, d’excellence, de croissance, de modernité… C’est pour cela qu’il faut prendre ses médicaments et ne plus penser, soigner les délinquants et chasser les étrangers ! En faisant la guerre à l’altérité, guerre qu’il fait passer aujourd’hui pour une évidence technique individuelle commandée par la santé et la sécurité, le scientisme médico-industriel au pouvoir se révèle ainsi comme la pire entreprise de perversion totalitaire depuis la barbarie nazie. Toujours relayée par les institutions étatiques sanitaires, sociales, éducatives, à travers des réformes accélérées détruisant toute éthique et toute solidarité, cette propagande grandiose vise à conditionner par autopersuasion une psychologie normopathique, condamnée à se faire la complice hypocrite d’un durcissement dramatique des pratiques socioprofessionnelles. Sans avoir à reprendre tout ce que nous avons appris jusqu’ici, nous devons préciser dans ses grandes lignes en quoi la subjectivité est ainsi massivement pervertie aujourd’hui, contrainte d’adapter coûte que coûte son comportement pour pouvoir « en profiter » de façon plus performante. La société néolibérale, égocentrique et sadique La nouvelle culture narcissique néolibérale qui est en train de s’imposer partout est fondamentalement sadique. Dans tous les domaines de la société, sous un double langage propagandiste de plus en plus faux, règne désormais en maître l’égoïsme du profit et de la concurrence le plus sauvage. Dans le monde du travail et de l’éducation, le déni du réel est devenu complet : pour échapper à la peur imminente de la précarisation et du décrochage, chacun est contraint de s’évaluer toujours mieux pour travailler toujours plus. Typiquement, comme le rappelle Patrick FAUGERAS, la métaphore omnipotente de l’entreprise vise à suturer l’espace entre le signe et le réel, fondateur de la subjectivité[41]. Tout conflit est clos, l’homme est chosifié, réduit à un objet utilitaire, corvéable et jetable à merci : « C’est la gestion kleenex : on prend les gens, on les casse, on les vire. » [42] Au même titre que « le fétichisme de l’évaluation » [43], le verbiage autoconvaincant sur l’amélioration de la qualité et de la performance dénote ce management désubjectivant symptomatique d’une « société malade de la gestion » (GAULEJAC). La perversion néolibérale a pour mission essentielle de cacher sa profonde mélancolie : sous le discours clinquant et la résignation, pointe une immense souffrance humaine qui ne peut s’extérioriser que par sa médicalisation, ou par des solutions extrêmes : bien plus qu’on ne feint de le croire, désormais, il faut « travailler à en mourir » [44]. La violence professionnelle est en effet d’autant plus insigne et insupportable qu’elle se déplace et se cache perfidement dans sa déshumanisation managériale, obligeant chaque travailleur à s’emmurer dans le repli agressif de sa normopathie narcissique. Cette « violence innocente » du déni prend ainsi la forme d’une « cruauté ordinaire », orchestrée par une multitude de « pervers envieux », qui attendent que tombe le collègue jalousé parce qu’il s’expose, pour conforter leur propre place, ainsi que l’explique Yves PRIGENT[45]. Christophe DEJOURS montre les mécanismes par lesquels la position perverse est aujourd’hui devenue la règle : elle témoigne « de l’opportunisme défensif de nombreux sujets qui peuvent y recourir lorsque les circonstances extérieures deviennent menaçantes » , par la duplicité du « clivage du moi » [46]. Mais comment une telle tromperie envers soi-même et envers les autres, une telle violence sociale, une telle guerre psychologique sont-elles possibles ? Pourquoi si peu en ont-ils conscience et réagissent ?Parce qu’elles sont massivement niées en étant projetées vers des boucs émissaires, nous le savons désormais. Véhiculée par des médias aux ordres, la perversion sadique se fixe en effet sur des ennemis désignés, tels que l’étranger en situation irrégulière, le terroriste ultragauchiste, le jeune futur délinquant, le pauvre fraudeur, le schizophrène et autre pédophile. Jouir de l’autre et de sa néantisation permet de s’assurer de son être : le fonctionnement pervers est immuable. Cette projection persécutive vise à déplacer magiquement la violence systémique, pour conforter l’organisation socio-économique en place. Soufflant sur les braises de l’angoisse collective, la perversion sécuritaire agit ainsi comme une prophétie autoréalisatrice, générant les passages à l’acte qu’elle prétend ensuite réprimer. Le psychiatre Daniel ZAGURY confirme que c’est au tour du fou dangereux, aujourd’hui, « d’incarner cette peur dont l’État sécuritaire a besoin pour s’autoaffirmer. Tous les pervers le savent : c’est au plus faible qu’il convient de s’attaquer si l’on veut être certain du résultat » [47]. Car au-delà de quelques faits divers, dans la suspicion généralisée qu’introduit la présomption prédictive, c’est l’ensemble de la population qui est en fait dressé comme un seul homme, éduquée à regarder de travers, couper symboliquement la moindre tête qui dépasse. Cette politique de la peur constitue, selon Alain BAFIOU, « l’ordre pathologique » d’une « terreur d’État à hauteur de la technique » , dans la mesure où la technologie numérique et la politique du chiffre transforment désormais la surveillance policière en « terreur virtuelle » [48] : la propagande psychologisante de l’autosurveillance et les nouveaux procédés informatiques de contrôle réalisent un contrôle panoptique qui détruit toute vie privée, et jusqu’à la possibilité même d’oser vivre ou penser différemment. Pour ma protection, je dois désormais accepter un contrôle permanent et occulte de mes moindres faits et gestes : cette injonction paradoxale sécuritaire omnisciente est une atteinte intolérable à ma dignité, à mon intégrité, à mon identité ! On sait par quelle duperie cette politique de terreur qui n’ose pas dire son nom, embrigade la psychiatrie dans sa vaste opération de persécution sociopolitique. Non seulement notre spécialité médicale est appelée à cautionner désormais le contrôle comportemental et médicamenteux à domicile par des « soins sans consentement » dont le caractère paradoxal dénote l’inhumanité, mais elle doit désormais dépister et traiter la « vulnérabilité » comportementale, que celle-ci signe une simple défaillance, n’importe quelle déviance, et même une future délinquance. Manipulation perverse là encore : en prétendant trouver la cause du trouble des conduites sociales dans un défaut d’autorité parentale qu’il faudrait corriger par des actions comportementalistes, les rapports gouvernementaux se moquent du monde ! Alors même que l’autorité de l’État ne cesse de se défausser sur ses boucs émissaires, et qu’une propagande paternaliste subtile, promue par les neuroéconomistes conseillant l’autorité en question[49], vise à faire croire à chaque individu qu’il est autonome, responsable, en charge de son capital santé – et fait gober cela à quantité de psychiatres, de psychologues et de sociologues[50] ! L’ensemble de la vie socio-économique repose sur cette illusion d’autonomie psychologique, désymbolisation néolibérale ne cessant de s’aggraver à la mesure du renforcement effectif du contrôle sécuritaire qu’elle exerce. Par une perversion d’État : voilà comment l’autorité se dénie comme telle aujourd’hui. De ce fait, chacun est renvoyé à son obligation de se soigner, autrement dit de se conformer à une norme passant non seulement pour être invulnérable, mais aussi purement personnelle. La psychologisation et la médicalisation systématique de l’existence font participer aujourd’hui la psychiatrie à cette vaste tromperie politique, ce déni pervers de toute liberté dont les conséquences historiques sont d’ores et déjà tragiques. Cette barbarie qui a déjà commencé est celle d’un nouvel ordre individualiste et comportemental commandé par les nécessités supposées de la compétition néolibérale.Un narcissisme consumériste de masse, voué à la jouissance immédiate, pour fuir l’épuisement dépressif provoqué par une pression normative extrême : telle est la perversion contemporaine d’un système néolibéral auquel la psychiatrie sert de courroie de transmission scientiste, tout en participant pernicieusement à sa maltraitance organisée. La raison psychologique m’enjoint à m’adapter sans cesse, à la recherche du contentement et de la combativité promis par la propagande pharmaceutique et professionnelle, tandis que je suis obligé de me plier à des contraintes et à des modes de contrôle de plus en plus nombreux et pesants. L’admiration est le ressort de l’excitation narcissique médiatique et technologique, mais la réalité socioprofessionnelle et politique est tout autre : il faudrait à la fois que je sois performant, motivé, moteur ; mais en même temps conciliant, flexible, mobile. Être maître de moi et meilleur que les autres, mais accepter d’être le jouet de décisions arbitraires ; réaliser des objectifs toujours plus ambitieux, mais avec de moins en moins de temps pour cela. Le discours socioprofessionnel ne cesse de pratiquer ce double langage haletant, de peur et de plaisir, de pseudoliberté et de sécurité mêlés, qui m’oblige à louvoyer sans cesse, au gré des circonstances. Je suis perdu, sous tension, sujet à des écarts d’humeur, tenté par la consommation et le divertissement, mais leur inanité me renvoie toujours plus à ma solitude. Cette ambivalence est éprouvante : me voici lancé dans un manège harassant où je ne suis plus moi-même, mais parasité en permanence, comme vidé. Ce vide narcissique, c’est la normopathie du faux-soi, qui me protège tant bien que mal du burn out . Mais aujourd’hui, il n’y a pas moyen de s’arrêter, sauf en maladie – on a vu à quel prix ! La course à la performance, « la vitesse stupéfiante » à laquelle change le monde, la « réalité économique » à laquelle « on ne peut rien changer », la vie professionnelle de plus en plus précaire et son management de plus en plus pressant ne nous laissent plus le choix : il faut se faire une raison et suivre le rythme. Telle se produit « la névrose de guerre économique » (DONNET), forme contemporaine d’un « malaise dans la civilisation » auquel nous sommes tenus psychologiquement de nous soumettre. Dans notre intérêt…, sinon la science psychiatrique est prête à nous asséner que la vulnérabilité et le trouble du comportement sont des maladies que l’on peut prédire génétiquement, prévenir par des programmes neuroscientifiques, soigner sans consentement, et corriger par la neuroéconomie : ainsi est garanti le conditionnement cognitif de l’adaptation bienheureuse à l’ordre du monde en place. Il n’y a plus d’altération, et plus d’altérité possibles : la santé mentale, pour les stratèges qui nous gouvernent, c’est de profiter et de jouir opportunément ! Le discours scientifique médical et psychologique, se calquant sur la propagande politique, managériale et industrielle, se vide ainsi de toute réalité : instrumentalisée par le pouvoir, la psychiatrie accrédite officiellement le projet néolibéral, de fonder une nouvelle gouvernance psychoéconomique basée sur l’égoïsme du profit et de la concurrence. Que chacun soit à sa place, assignée par le mérite et par l’argent, et participe naturellement à l’enrichissement du monde : la perversion narcissique est la personnalité culturelle du néolibéralisme, qui exige que chacun devienne un manager sans limites à sa manipulation utilitariste du monde et des autres. Dans un système aussi déréglé, lancé dans une folle fuite en avant, car sa croissance est justement caractérisée par l’absence de limite, pur jeu de miroir spéculatif où Narcisse peut s’admirer jusqu’à en mourir, la psychiatrie aura vite fait de nous remonter le moral, comme une vulgaire « droguerie » (La BOÉTIE). Le refuge dans le plaisir immédiat constitue bel et bien le seul déni possible à la profonde démoralisation causée par cette absence totale de perspectives historiques. À chacun de s’adapter en espérant s’en sortir mieux que les autres, et advienne que pourra ! Dans la France de 2012, cette réalité tragique prend la forme d’une lutte oppressante pour la survie : l’insécurité sociale généralisée et son déni sécuritaire, l’injustice et l’immoralité d’un système économique présenté comme sans alternative, sont trop décourageantes pour nous révolter vraiment. Telle est la terrifiante obligation qui nous est faite aujourd’hui, à chacun d’entre nous, d’adopter cette mentalité opportuniste et compétitive aux dépens de toute santé psychique et de toute éthique démocratique. Face à un avenir barré, la banalité du mal est conditionnée désormais par une psychiatrie neuroscientifique normative et prédictive qui évoque irrésistiblement la politique d’élimination eugénique menée en Europe il y a moins d’un siècle. Cette résurgence du totalitarisme scientiste rend la sélection d’ores et déjà impitoyable…Pour clore cette analyse, nous pourrions dire à l’instar d’Axel CAPRILES et de la conclusion de son article Pouvoir et infériorité psychopathique qu’Olivier LABOURET actualise – au travers de son engagement – les propos de C. JUNG qui pour sortir de l’impasse dans laquelle nous conduisent les psychopathes au pouvoir[51] conseillait d’éduquer le peuple à la psychologie analytique. [1] D’après le testament politique du Président François Mitterrand paru dans le livre de Georges-Marc BENAMOU Le Dernier Mitterrand .[4] Paul-Claude RACAMIER , Le génie des origines , Payot, 1992, p. 280. [5] Paul-Claude RACAMIER, Pensée perverse et décervelage , in Gruppo, Revue de Psychanalyse Groupale n° 8, p. 137, 1992.[6] Le récent succès médiatique du concept de pervers narcissique a suscité une vague de sévères critiques de la part des professionnels de la santé mentale – ce dont nous reparlerons tantôt -, mais pour l’heure, je n’en ai pas trouvé une seule qui blâme cette notion en toute connaissance de cause. C’est-à-dire que tous les opposants à ce concept n’ont jamais pris le temps de s’informer correctement sur l’objet de leur critique.[7] Je le précise ici, sachant pertinemment que même si j’avais introduit cette remarque dans le texte principal, peu de lecteurs y auraient prêté attention : aborder le sujet de la perversion narcissique en donnant au terme de pervers narcissique une acception nosographique, c’est déjà être en dehors de la théorie . Ce qui revient en somme à la pervertir, car le mouvement pervers narcissique décrit un processus, une dynamique ou une force, etc. à l’oeuvre dans des situations conflictuelles, bien plus qu’il ne pose un diagnostic catégoriel et catégorique. Autrement dit, la théorie de la perversion narcissique est dimensionnelle et non pas catégorielle (cf. les précisions apportées en ce sens-là par l’article Pathologie du pouvoir : Psychologie des leaders psychopathes – Narcissismes sain et pathologiques ). C’est de cette indistinction entre l’aspect catégoriel et l’aspect dimensionnel des troubles de la personnalité que naissent la plupart des quiproquos entre professionnels de divers courants lorsqu’ils évoquent entre eux les troubles ou les dysfonctionnements mentaux observables.[9] C. MELMAN, L’homme sans gravité. Jouir à tout prix , Paris, Denoël, 2005.[10] W. Brown, Les habits neufs de la politique mondiale , Paris, Les Prairies ordinaires, 2007.[11] J.-P. LEBRUN, La perversion ordinaire . Vivre ensemble sans autrui , Paris, Denoël, 2008.[12] P. DARDET, C. LAVAL, La nouvelle raison du monde , Paris, La Découverte, 2009.[13] D.R. DUFOUR, La cité perverse , Paris, Denoël, 2009.[14] E. BERNAYS, Propaganda (1928), Paris, La Découverte, 2007.[15] DSM -IV , Paris, Masson, 1996, p. 772-773.[16] « La santé mentale, l’affaire de tous », rapport de novembre 2009, p. 43.[17] La perversion n’a donc pas de sexe.[18] J.-P. LEBRUN, op. cit. [19] F. MAZOYER, « Consommateurs sous influence : l’irrésistible perversion du besoin », Manière de voir , n° 96, décembre 2007-janvier 2008.[20] AFP, 9 juillet 2004. Ndlr : Patrick Le LAY, PDG de TF1, qui interrogé parmi d’autres patrons dans un livre  Les dirigeants face au changement  (Éditions du Huitième jour) affirma* : « Il y a beaucoup de façons de parler de la télévision. Mais dans une perspective « business », soyons réalistes : à la base, le métier de TF1, c’est d’aider Coca-Cola, par exemple, à vendre son produit (…). Or pour qu’un message publicitaire soit perçu, il faut que le cerveau du téléspectateur soit disponible. Nos émissions ont pour vocation de le rendre disponible : c’est-à-dire de le divertir, de le détendre pour le préparer entre deux messages. Ce que nous vendons à Coca-Cola, c’est du temps de cerveau humain disponible (…) Rien n’est plus difficile que d’obtenir cette disponibilité. C’est là que se trouve le changement permanent. Il faut chercher en permanence les programmes qui marchent, suivre les modes, surfer sur les tendances, dans un contexte où l’information s’accélère, se multiplie et se banalise. » * Dépêche AFP reprise notamment par  Libération  (10-11/07/04) : « Patrick Le Lay, décerveleur ». [21] F. CUSSET, « La société écran », Politis , 23 juillet 2009.[22] B. STIEGLER, « Le désir asphyxié, ou comment l’industrie culturelle détruit l’individu », Manière de voir, n° 96, janvier 2008.[23] H. SZTULMAN, Psychanalyse et humanisme, Toulouse, Rue des gestes, 2008, p. 29.[24] Rhizome , n° 39, juillet 2010.[25] Roland JACCARD avait employé le terme de « fonction hypnotique » dès les années 1970 pour décrire l’action de la télévision qui engourdit, assomme le spectateur « dans la passivité béate de sa position assise », et désintègre sa relation au monde. Dans L’exil intérieur , Paris, puf, 1975.[26] E. MINKOWSKI, Le temps vécu, Paris, Delachaux et Niestlé, 1968.[27] P. MEIRIEU, « Lettre ouverte au ministre de l’Éducation nationale », 27 décembre 2008.[28] V. THPRSTEIN, Théorie de la classe des loisirs (1899), Paris, Gallimard, 1970.[29] C. FLEURY, La fin du courage , Paris, Fayard, 2010, p. 49.[30] H. KEMPF, Pour sauver la planète, sortez du capitalisme , Paris, Le Seuil, 2009, p. 62.[31] C. LASCH, La culture du narcissisme (1979), Paris, Flammarion, 2006, p. 50-51.[32] Cf. A. ADLER et F. NIETZSCHE, dans T. BRUGVIN, La psychosociologie de l’individu face aux pouvoirs politiques et économiques , texte de 2008.[33] M. PINÇON, M. PINÇON-CHARLOT, Le président des riches. Enquête sur l’oligarchie dans la France de Nicolas Sarkozy , Paris, La Découverte, 2010, p. 160.[35] Ars industrialis, manifeste 2010.[36] Cité par Politis , 8 juillet 2010.

Read more

24 heures avec Ken Follett, multimillionnaire…

Le Nouvel Observateur

De notre envoyé spécial à Londres, Jean-Gabriel Fredet Pour parler de «l’Hiver du monde», second tome de sa trilogie sur le XXe siècle, Ken Follett m’avait reçu à l’Athenaeum, son club, l’un des plus huppés de Londres, qui compta parmi ses membres Dickens, Thackeray, Kipling ou T. S. Eliot.Rendez-vous cette fois au Soho Hotel, niché au fond d’une ruelle, et QG de l’industrie cinématographique qui a colonisé ce quartier cosmopolite. «Mon club est à Saint James mais j’habite Soho», explique-t-il, assis au bar, derrière un gigantesque chat en bronze signé Botero.Et, comme pour s’excuser de son costume Savile Row gris perle, rehaussé d’un gilet et d’une cravate de même ton, mettant en valeur sa crinière blanche: J’adore ce quartier de pubs, de théâtres, avec ses sex-shops et ses bars homo. Le matin, à 7 heures, quand je me lève, pochards et prostituées finissent leur nuit sous mes fenêtres. Thé ou café ? Ni scotch ni stout pour discuter d’«Aux portes de l’éternité», le dernier tome de sa fresque. Le poids lourd du best-seller se contente d’un thé Earl Grey. Le second depuis son petit déjeuner de 9 heures, avalé après deux heures à sa table de travail. Un break minimaliste (rasage au coupe-chou, lecture des journaux pour la politique intérieure et les news internationales), puis c’est à nouveau l’ordinateur. «90% de transpiration, 10% d’inspiration.» Jusqu’à 17 heures. Six jours sur sept.Epuisé par les 1200 pages de son livre ? «Non, soulagé» d’avoir achevé dans les temps la dernière partie (1961-2008) d’un «Siècle» plein de bruit et de fureur. Une histoire racontée à travers le destin de cinq familles, une galloise, une anglaise, une américaine, une russe et une allemande, intimement liées mais déchirées par les guerres, les rivalités politiques, l’amour et les trahisons. Quand j’ai commencé ce récit, qui m’a demandé près de trois ans de travail pour chaque tome, j’ai cru ne jamais y arriver. Et puis à Londres, au Hampstead Theatre, j’ai vu jouer les huit pièces historiques de Shakespeare, de «Richard II» à «Henri VIII», en quatre jours. Cette représentation du XVe siècle anglais, concentrée en huit représentations, m’a galvanisé. Et condamné à une vie monacale ? Je suis drogué à l’écriture. J’ai passé mes trente-cinq dernières années à une table de travail. J’aurais pu jouer au golf profiter. Mais j’aime l’excitation de l’écriture. Cet «esclavage» me permet aussi d’assouvir des goûts de luxe: grandes tables, voyages en avion privé, maison à Antigua, dans les Caraïbes. Ecrit en vingt-huit mois, avec une sortie mondiale le 25 septembre, «Aux portes de l’éternité» laisse Follett «victorieux» d’un «défi» pour lequel il aurait, selon le magazine «Forbes», perçu de son éditeur américain Dutton un à-valoir global de 50 millions de dollars.Mais il en sort surtout «heureux» car son dernier-né, voué au même succès que les deux précédents tomes (respectivement 8 et 5 millions d’exemplaires vendus), reprend en les raffinant les recettes qu’il a inventées depuis son entrée en littérature, il y a trente-huit ans. Les recettes du chef Retour en arrière. Avant de triompher dans la fresque historique, Follett a bâti sa réputation sur les romans d’espionnage et les thrillers. Grandi dans un après-guerre sans télé où les bibliothèques étaient l’unique moyen d’évasion, ce Gallois pur jus, né il y a soixante-cinq ans d’un père percepteur, voue un culte au parrain du genre, Ian Fleming, l’inventeur de James Bond, découvert à l’âge de 12 ans : Il a créé le héros de fiction le plus populaire du XXe siècle. Avec une prose simple, vivante, il a imaginé un monde où le lecteur oublie tout. De ce goût pour les spy novels et de son passé de journaliste au «South Wales Echo», Follett a tiré deux règles. Pas de maniérisme stylistique. Le récit d’abord. De «l’Arme à l’oeil» (10 millions d’exemplaires) au «Réseau Corneille» en passant par «Peur blanche», ce multimillionnaire du livre traduit en vingt langues suit la même ligne.Et lorsqu’il bifurque vers le roman historique avec «les Piliers de la Terre» (23 millions d’exemplaires) puis «Un monde sans fin» (10 millions), son épopée, d’abord recalée par les éditeurs, reprend les mêmes principes.Organisé autour de la construction d’une cathédrale, où se croisent les destins de quatre archétypes (une voleuse, une religieuse libérée, un génie, un orgueilleux), c’est un thriller médiéval bâti sur une thématique forte et simplissime (amour, vengeance et pouvoir au siècle des ténèbres), mais déclinable en cinquante scènes dramatiques. Avec une écriture «transparente comme une vitre» pour que les pages se tournent toutes seules.La trilogie «le Siècle» (1911-2008) affine ces recettes. L’histoire, rien que l’histoire, avec «le moins possible de fioritures décoratives». Ce qui suppose «une structure capable de faire avancer l’intrigue, explique Follett en sirotant son thé. Ensuite, des personnages que l’on doit aimer. Les détails historiques ne se justifient que s’ ils renforcent l’impression de réalité. Dumas et Dickens ont fait la même chose ? Follett revisite les recettes populaires. D’abord «ne jamais trahir la réalité historique». Ou le moins possible. Dans ce dernier volet, qui a pour cadre la guerre froide, du mur de Berlin à sa chute, Follett traque les faits: aux trouvailles de l’équipe new-yorkaise qui l’assiste traditionnellement dans sa quête de documents, statistiques et autres détails vrais, il a ajouté l’expertise de kremlinologues et d’historiens (des droits civiques, de la crise de Cuba, du blocus de Berlin).Ils ont supervisé ses recherches, guidé ses repérages à Atlanta, Washington ou Moscou, corrigé sa copie. Mais l’essentiel reste la composition: «J’adore le grand puzzle de la structuration du récit.» Des trois phases de la fabrication (scénario, écriture, polissage), Follett préfère de loin la première: la confection d’un scénario détaillé de 40 pages, où les intrigues se croisent pour mettre en scène des personnages de familles, de milieux et de pays différents.Passée au crible par son agent Al Zuckerman, et par sa femme Barbara (ex-ministre de la Culture travailliste), cette trame est le socle d’où tout procède. Dans un récit qui s’étire sur un demi-siècle et plus de mille pages, elle fournit le fil permettant de «géolocaliser» des personnages si nombreux qu’il faut un index pour s’y retrouver.En aval, chaque chapitre doit respecter le cordeau d’une architecture dont les invisibles tenons créent le suspense. A chaque page, un rebond prend le lecteur à revers et pose en filigrane ces questions: le héros «va-t-il échapper au danger qui le menace ? Va-t-il sombrer dans le découragement ou retrouver espoir ? Séduire ou être repoussé ?» Une coupe de Dom Pérignon Proche d’un story-board («run, run, run», dit le canon hollywoodien), cette technique pêche-t-elle par systématisme ? Lisses, divisés en «bons» et «méchants», affectés d’une psychologie de l’épaisseur d’un papier à cigarette, les personnages décollent. A la question : «Qu’est-ce que la littérature ?», l’ entertainer en préfère une autre : «Comment séduire le lecteur ?»A l’arrivée, ses livres sont relégués par la critique au rang de romans de gare écrits de la main gauche et sauvés par le marketing, mais immensément populaires. Follett ne croit qu’au lecteur. Et celui-là, il le tient, avec une technique sans cesse perfectionnée: l’irruption de personnages historiques.Dans «l’Hiver du monde», les héros se contentaient de croiser les protagonistes de l’Histoire (Churchill, Roosevelt ou Staline). Dans «Aux portes de l’éternité», ils partagent leur intimité, voire leurs aventures sexuelles. Quitte parfois à leur laisser la vedette. Substitution d’autant plus efficace que Follett, subversif et rusé, prétend du même coup dévoiler leur personnalité: John Kennedy, politicien retors et obsédé sexuel ; Bob, son frère, défenseur velléitaire des droits civiques ; Martin Luther King, orateur de génie et séducteur compulsif ; Edgar Hoover, homo refoulé… S’identifiant aux personnages fictifs, témoin des grandeurs ou faiblesses des personnages historiques, le lecteur ne peut qu’authentifier leur face cachée.17 heures. L’heure où le romancier le mieux payé du Royaume-Uni s’octroie une coupe de Dom Pérignon… si sa copie est de bonne qualité. Récemment, un léger embonpoint («Barbara trouve que je m’empâte») l’a obligé à compléter ce rituel d’une heure de vélo d’appartement. 18 heures. Voici le soir. Follett s’habille (costume foncé, chemise immaculée, pochette blanche) pour aller dîner dans un grand restaurant (une préférence pour les chefs français). A moins qu’il n’aille au théâtre ou au concert («Londres reste la capitale culturelle du monde»). LireJohn Grisham : « J’ai vendu trop de livres ! »Deux fois par mois, cet ancien guitariste, amoureux des Beatles et de Madeleine Peyroux dont il «adore la voix sexy», rejoint son groupe de blues pour une jam session où il tient la basse. Nom du groupe: Damn Right I Got the Blues. Mot à mot: «Tiens, bien sûr que je broie du noir».Seul vice connu, la lecture. Mais pas de goût particulier pour ses contemporains, qu’ils s’appellent Jonathan Coe ou Martin Amis, à l’exception de Philip Roth et de Stephen King («pour sa créativité»). Une détestation pour le fantastique, style «le Seigneur des anneaux» (« Je déteste les elfes, a-t-il confié au «New York Times». Si tout est permis, il n’y a plus de suspense. Il faut des règles.») Et une passion pour l’histoire.Sur sa table de chevet, un pamphlet contre l’Empire britannique. Ajoutez un culte pour Shakespeare. Un dieu, Tolstoï, lu et relu sans cesse, «sans jamais prétendre pouvoir égaler son art de distiller une émotion forte». Et les romans «victoriens»: «J’aime ces longues histoires paresseuses de famille et de voisinage qui n’ont pas peur de parler de morale et de politique», explique ce lecteur vorace, dont Ridley Scott s’apprête à adapter le « Siècle » pour une série télé.Coïncidence ? Le week-end, il est dans sa gentilhommière du Hertfordshire, au nord de Londres, là où Jane Austen situe «Orgueil et Préjugés». Lundi, Follett sera à nouveau à Soho. Devant son ordinateur. Il a commencé à Noël un roman d’espionnage situé au XVIe siècle entre Paris, Amsterdam et Londres : Les jésuites veulent assassiner Elisabeth Ire, «coupable» de vouloir établir l’autorité de l’Eglise protestante. Un scénar de rêve quand on a eu des parents «born again christians». Jean-Gabriel Fredet Aux portes de l’éternité , par Ken Follett traduit de l’anglais par Odile Demange. Dominique Haas, Jean-Daniel Brèque, Nathalie Gouyé-Guilbert Robert Laffont, 1224 pages. 24,90 euros. Article paru dans « le Nouvel Observateur » du 25 septembre 2014.   A lire dès cette semaine dans « l’Obs » du 2 octobre : * RICHARD FORD. La promesse bafouée d’Obama. Entretien exclusif  (p. 90-92). * Y A-T-IL UN SHOAH BUSINESS ? Fille de rabbin, Tova Reich dénonce l’exploitation commerciale de  l’Holocauste dans un roman qui a fait hurler aux Etats-Unis. Enquête sur un scandale annoncé en France (p. 94-96).  * MODIANO DANS LE TEXTE. Dans un beau roman, Patrick Modiano enquête à nouveau sur son enfance. Il a bien voulu, pour « l’Obs », en commenter les phrases clés. Rencontre avec Jérôme Garcin (p. 98-99). * LA TEMPÊTE SHAKESPEARE. Par Philippe Sollers (p. 100-101) * GREY ANATOMIE. La sociologue Eva Illouz analyse le succès phénoménal de « Cinquante nuances de Grey ». Entretien (p. 104) * ET AUSSI. Paul Valéry in love, Eric Laurrent, Pierre Demarty…

Read more

Il est l’heure de changer de job, si…

Journal du Net

Il est l’heure de changer de job, si… Il n’y a jamais qu’un chemin vers la réussite. Et dépendre de son entreprise pour y parvenir est risqué. Sachez repérer quant il est temps de changer de job, de poursuivre votre route à vous dans un ailleurs qui vous offrira plus d’opportunité. On vous fait miroiter une évolution Vous avez fait vos preuves. Vous êtes dans votre boite depuis quelques années. On vous parle promotion, augmentation de salaire, meilleures conditions de travail et puis, au final, rien ne vient. Le poste que vous convoitez ? Une recrue externe moins expérimentée ou moins diplômée y est nommée. Et les promesses continuent avec toujours en toile de fond que « vous devez faire vos preuves ». Fuyez. C’est le signal pour chercher votre opportunité ailleurs. Les compagnies qui usent de promesses jamais respectées, et qui lorsqu’un poste se libère cherchent toujours ailleurs, vous offriront bien peu à long terme pour votre évolution à vous. Passez par là, prenez ce que vous avez à y prendre, mais ne vous attardez pas. Vous avez peur de tout perdre Ces angoisses qui vous lient à votre travail vous rendent dépendant et ne reflètent pas la réalité du marché, de votre valeur, et de ce que produit votre entreprise pour vous. Si vous pensez souvent à partir, peu satisfait des conditions de travail mais que ce qui vous limite c’est  avant tout des pensées liées à l’échec et à la peur de faire un mauvais choix, sachez qu’il s’agit là d’un reflet illusoire de la réalité. Car changer de job peut être une étape, une finalité, un moyen de… mais rester sur place quant l’on ne s’y sent pas bien vous rendra toujours stagnant et immobile alors que le monde bouge. Vous attendez le week-end avec impatience L’idée que le travail doit être dur ou ennuyeux est un mythe, qui devient réel parce que nous l’acceptons ainsi. Et que nous avons appris à chercher un job pour travailler, avoir de l’argent ou correspondre à ce que la société attend de nous. Réapprenez à envisager le travail. Vous pouvez y être bien et y prendre du plaisir mais pour ça vous devez vous donner le choix. Lorsque l’on travaille uniquement pour avoir, on court le risque de n’être jamais satisfait de ce que l’on a. Lorsque l’on travaille pour « être », alors le travail devient source de construction de soi et d’épanouissement. Et si, pour vous, le plaisir dans votre semaine c’est d’arriver au week-end, alors il est l’heure de changer de job. Vous finissez par perdre vos aspirations Votre job vous paraît pas mal, paie pas mal, ambiance pas mal, évolution moyenne mais dans l’ensemble « ça pourrait être pire »… Cette illusion de confort que vous offre votre job vous empêche de souhaiter mieux et use vos aspirations. Accrochez-vous à vos rêves premiers. Le bonheur passe par l’épanouissement « au travail comme en amour », disait Freud et se contenter de ce qu’on a n’est pas épanouissement ; le bonheur passe par la recherche du mieux. Et ce fameux  « ça pourrait être pire »  est la première excuse à l’inhibition de vos rêves.  Alors si tous les soirs vous vous sentez lassé de votre journée, il est l’heure de chercher de nouveaux challenges ailleurs. Votre entreprise utilise le management du stress Vous vous sentez exploité dans votre entreprise, votre hiérarchie est despotique, vous avez peu de marge de liberté, vous êtes sous pression et l’on vous explique que c’est normal, c’est la  norme de l’entreprise… On vous surcharge de dossiers. Vous êtes celui qui arrive le plus tôt et part le plus tard, à espérer un changement ou une valorisation qui n’arrive pas. Vous ne changez pas de job parce que, au final, c’est devenu votre normalité. Vous vous êtes habitué à ce stress qui vous rend désagréable et nerveux, lorsque vous êtes dans votre vie privée. Il existe différents types de management, comme il existe différentes manières d’être leader, chef ou despote. Votre entreprise n’est pas la norme. Et si vous ne cherchez pas le changement, alors vous êtes acteur de votre situation actuelle. Si l’herbe vous paraît plus verte ailleurs, parfois, c’est peut-être parce que chez vous « on » y a fait couler du béton . Vous avez des rêves professionnels pas encore exploités Vous vous rêviez directeur général mais vous êtes manager depuis dix ans maintenant,  vous espériez pouvoir mettre votre créativité au profit de votre job, mais la liberté octroyée ne vous offre pas cette fantaisie, vous souhaitiez voyager mais votre  travail se passe toujours sur une chaise face à cette fenêtre qu’est votre écran… Créer son entreprise, changer de secteur, monter, bifurquer… Vous avez de vieilles envies qui toquent régulièrement à la porte de vos pensées et votre entreprise actuelle  ne vous offre pas l’opportunité de les exploiter… Petit à petit, il est temps de construire ailleurs et à défaut vous prenez le risque de faire de ces rêves des regrets. Vous avez un problème d’éthique L’éthique et la morale que vous rencontrez dans votre monde professionnel influent sur la représentation que vous avez de votre job et de vous-même. Si pour vous, travailler dans votre compagnie vous  pose un problème moral de part ses activités, visées ou domaines d’action, mais que vous continuez à y travailler jour après jour, ou si les techniques de management  qui vont sont imposées posent question, si dans les missions que vous effectuez, vous y voyez un manque d’éthique… il est l’heure de chercher un job qui vous corresponde dans vos attentes morales. Tout individu se structure dans son emploi, sa fonction et si cela va dans le sens contraire de sa propre morale, viendra le moment où, après des années de travail, il se sentira n’avoir rien fait d’essentiel. Vous ne croyez plus en vous A force d’effectuer les mêmes taches, les mêmes fonctions, les mêmes missions, vous avez fini par perdre confiance en vous dans vos envies premières et en vos rêves. Le temps d’après les études ou vous étiez plein d’espoir de ce que vous alliez trouver vous paraît loin et vous vous laissez cantonner à ces taches professionnelles qui, en quelques part, vous conviennent parce que, au final, vous ne savez plus vraiment votre valeur. Et l’avez-vous vraiment déjà su ? Il est temps de changer de job ! L’image que l’on a de soi passe forcément par le travail que l’on exécute jour après jour, car notre identité est porteuse de notre profession. Et si l’on commence à perdre confiance en soi, fatigué par des missions qui se répètent et qui nous semblent de moins en moins sensées et par une évolution lente ou qui tarde à venir, alors il est l’heure. La confiance en soi se donne, mais pour cela vous devez trouver le sens pour vous, dans votre vie de ce que vous effectuez, jour après jour, dans votre profession.

Read more

Films et séries en streaming : Netflix ou…

Mac Generation

Vous ne l’ignorez sans doute pas, Netflix a enfin ouvert ses portes en France la nuit dernière. Le service américain de streaming de films et séries en illimité est désormais accessible dans l’Hexagone. La législation française est pourtant très contraignante pour un tel service. Comme on a déjà eu l’occasion de le rappeler à plusieurs reprises, les films ne peuvent pas se retrouver en streaming pendant 36 mois après leur sortie en salles : Netflix et les autres doivent ainsi se contenter de films de plus de trois ans.La chronologie des médias a été mise en place pour protéger les créations originales, mais elle limite aussi les options de diffusion pour Netflix et ses équivalents. Car si l’Américain était attendu, il n’est pas le premier service de streaming illimité disponible en France. Canalplay existe même depuis trois ans et ce service de Canal+ a donc pris une longueur d’avance.Netflix est-il meilleur que Canalplay ? Pour le savoir, nous avons comparé les deux catalogues dans leur état actuel sur quelques séries et films très connus. Le service de Canal+ a pour lui sa relative ancienneté, alors que Netflix n’a pas plus de quelques heures d’activité. Cette comparaison reste ainsi purement indicative, mais elle pourra peut-être vous convaincre de vous abonner à l’un ou à l’autre. Avant de commencer, rappelons que les deux offres proposent un mois gratuit pour essayer sans frais. Dans les deux cas, il faut donner ses identifiants de paiement et ainsi ne pas oublier d’arrêter l’abonnement avant le mois suivant si on ne veut pas payer, mais cela n’en reste pas moins un vrai mois gratuit. SériesCes dernières années, Netflix s’est fait connaître pour les séries que l’entreprise a produites elle-même. Suivant ainsi le modèle de HBO, une chaîne américaine spécialisée dans les séries, le service ne se contente plus de diffuser du contenu, elle en produit aussi. Et quelles séries ! House of Cards n’a pas raflé plusieurs prix et n’est pas parmi les séries les plus suivies aujourd’hui sans raison : cette fresque politique qui présente l’envers du décor de Washington et de la vie politique américaine est excellente. Même chose pour Orange is the new Black , qui n’a pas encore connu le succès mérité : en deux saisons, cette série qui se déroule dans une prison de femmes est, elle aussi, une réussite. Vous pensiez avoir nécessairement accès à ces séries en vous abonnant à Netflix ? Les choses sont malheureusement plus compliquées que cela… Orange is the New Black est bien présente en France et la troisième saison qui sortira en juin 2015 devrait également y être proposée. En revanche, Canal+ avait déjà acheté les droits sur House of Cards et la chaîne privée diffusera la troisième saison au début de l’année prochaine. Dès lors, elle devrait être proposée sur Canalplay, c’est logique, non ? Eh bien non : Canal+ privilégie toujours la télévision traditionnelle, au détriment de son propre service de SVOD. Résultat, il n’y a pour le moment aucun moyen légal de regarder House of Cards , du moins sans s’abonner à Canal+ et patienter jusqu’à la diffusion de la série, ou sans acheter la série en DVD ou Blu-ray, ou bien encore sur l’iTunes Store.Netflix ne se contente pas de distribuer ses propres séries, naturellement, et le service dispose d’un catalogue assez riche. Les séries n’étant soumises à aucune restriction temporaire, on en trouve de très récentes, comme l’originale Penny Dreadful (entre horreur et fantastique, elle mélange tous les mythes de la littérature anglaise du XIXe siècle) ou encore Fargo , adaptée du film éponyme des frères Coen. On a aussi quelques grands succès de ces dernières années, de Breaking Bad à Dexter , en passant par Fringe , la mythique Doctor Who (depuis 2005 seulement) ou encore Prison Break pour ne citer que quelques exemples. Il y a plusieurs lacunes notables, et tout particulièrement le catalogue de HBO, totalement absent… ou presque. On trouve ainsi l’excellente Deadwood (un western particulièrement sombre et réaliste), mais elle fait plus figure d’exception. Inutile de compter sur True Detective qui a énormément fait parler d’elle cette année, pas plus que Games of Thrones qui devrait probablement rester la série la plus piratée les prochaines années, encore moins les classiques du studio, des Sopranos à Six Feet Under , en passant par The Wire . Quand Netflix n’a pas un titre à son catalogue, le site ne se démonte pas et affiche des suggestions. C’est malin de mettre ainsi en avant son point fort qui est son moteur de personnalisation du contenu.Netflix est ainsi très loin de l’exhaustivité et le catalogue français est à cet égard bien plus faible que l’américain, comme le montrait dans la matinée cet internaute. Reste que Canalplay ne fait pas vraiment mieux : le service de Canal+ n’a pas plus accès au catalogue de HBO que son nouveau concurrent, et la majorité des séries évoquées précédemment ne sont pas proposées. Quelques exceptions quand même, comme Doctor Who qui est aussi là depuis 2005 ou encore The Big Bang Theory , mais en général ce qui est sur l’un ne l’est pas sur l’autre.Canalplay se rattrape avec d’autres séries à succès : on a ainsi les six premières saisons de l’excellente Mad Men (qui se déroule dans une agence de publicité new yorkaise, à partir des années 1950), ou encore l’intégrale de la mythique Lost . La série Weeds (sur une mère de famille qui se reconvertit en vendeuse de drogue après la mort de son mari) est aussi proposée en intégralité, tout comme 24 heures chrono , que l’on ne présente plus.Canalplay est beaucoup moins utile quand il n’a pas le contenu que vous cherchez : au « mieux », vous aurez une approximation à partir de votre requête, mais le plus souvent il faut se contenter des derniers ajouts. Il n’y a pas que les séries américaines (ou anglo-saxonnes) dans la vie et sur ce point, Netflix est un peu décevant. À l’heure actuelle, les séries françaises se comptent sur les doigts d’une main, du moins quand on veut des fictions. Les six saisons de Fais pas ci, fais pas ça sont au rendez-vous, de même que toutes celles d’ Un village français ou encore l’unique saison des Hommes de l’ombre . Le service se rattrape côté documentaires : une bonne partie des programmes de France Télévision sont disponibles, comme Apocalypse : la 1ère Guerre Mondiale , le Métronome de Lorànt Deutsch ou bien les Duels de France 5 et notamment celui entre Steve Jobs et Bill Gates.En revanche, le service américain échoue lamentablement sur les séries les plus populaires : Netflix ne propose ni Plus Belle la Vie , ni les classiques de l’humour que sont Un gars, une fille ou bien encore Samantha Oups ! , trois séries qui sont au catalogue de Canalplay. Mais ce dernier est encore une fois handicapé par le choix étrange de valoriser systématiquement la télévision traditionnelle : où est la très bonne série juridico-policière Engrenages  ou l’hilarante Hard , pendant français de Weeds où une mère de famille un peu bourgeoise se lance dans l’industrie pornographique après la mort de son mari ? Ces deux séries ont été produites par Canal+, elles ont été diffusées sur Canal+, mais elles ne sont proposées en streaming nulle part…Aux États-Unis, les séries sont incontestablement le point fort de Netflix. En France, c’est peut-être moins clair et même si on a de quoi faire avec un catalogue déjà bien rempli, les lacunes sont encore nombreuses. House of Cards mis à part, les abonnés devraient au moins bénéficier des séries produites par le service : on sait au moins qu’une nouvelle série sera tournée à Marseille l’an prochain. Quant à Canalplay, on retrouve plus de séries, mais c’est bien normal après plusieurs d’années existence. Les choix politiques de la maison mère ont toutefois désavantagé le service de streaming, et cela pourrait vraiment poser un problème s’ils ne sont pas rapidement modifiés. Le service devrait bénéficier au minimum des contenus financés par Canal+, mais ce n’est pas encore le cas…FilmsSi vous préférez les longs-métrages aux séries, réglons d’emblée un point important : vous ne trouverez rien de moins de 36 mois, que ce soit sur Netflix ou sur Canalplay. Les deux services respectent scrupuleusement la législation française et attendent ainsi les trois ans nécessaires après la sortie en salle d’un film pour éventuellement l’ajouter à leur catalogue. Vodkaster a trouvé une astuce pour contourner la législation, en stockant les DVD dans ses entrepôts pour vous vendre les films affichés en streaming (lire : Vodkaster s’allie à Riplay pour proposer une VOD originale). Le service se fait de la publicité avec un site nommé « Notflix » pour recenser tous les films que l’on ne trouve pas sur Netflix et c’est de bonne guerre, mais cela ne change rien au problème de base. Tant que cette législation sera en place, on ne trouvera rien de récent sur l’un, comme sur l’autre.Ce n’est pas parce que le catalogue est relativement ancien qu’il ne peut pas être bon. Le cinéma a produit suffisamment de chefs-d’oeuvre depuis plus d’un siècle, pour que ces services de streaming à la demande puissent nous occuper longtemps. Plus encore que pour les séries, une comparaison exhaustive des films offerts par chaque service est totalement impossible, mais nous avons essayé quelques blockbusters récents, des films indépendants pas trop anciens et plusieurs classiques intemporels. Si vous voulez découvrir les films de Stanley Kubrick — que des chefs-d’oeuvre ! –, vous n’aurez pas beaucoup de choix. Netflix n’en propose que deux ( Orange Mécanique et Full Metal Jacket ) et même si Canalplay en propose deux fois plus ( Shining et Eyes Wide Shut en plus), on ne peut pas encore se faire une intégrale. Sans parler de Fear and Desire , un premier essai désavoué par son auteur et qui a presque totalement disparu de la circulation aujourd’hui, quid de 2001, Odyssée de l’espace ou encore de Barry Lyndon  ?Stanley Kubrick chez Canalplay (gauche) et Netflix (droite).C’est encore pire pour Woody Allen : le new yorkais est présent sur Canalplay, mais uniquement avec Maris et femmes qui n’est sans doute pas son meilleur. C’est toujours mieux que Netflix qui n’en propose… aucun. On évoquait les frères Coen plus tôt : sur ce point, c’est l’inverse, avec trois films pour Netflix ( Fargo donc, mais aussi Sang pour sang , leur tout premier film et un plus récent avec Burn After Reading ) et aucun pour le service français. Vous aimez James Bond ? Dommage, l’agent secret n’est présent ni dans l’un, ni dans l’autre.Terrence Malick, Francis Ford Coppola sont aux abonnés absents. Quentin Tarantino est un petit mieux servi avec quatre (voire trois) films sur Canalplay ( Jackie Brown , Pulp Fiction et les deux Kill Bill ), mais seul le premier des trois sur Netflix, tandis que Sofia Coppola, fille de, est également connue, uniquement sur Canalplay, avec Marie-Antoinette et Lost in Translation . Inception et les deux premiers volets de sa trilogie Batman pour netflix, Le Prestige en plus pour Canalplay : il manque les premiers (et tout aussi bons) films de Christopher Nolan. Vous aimez mieux les blockbusters ? Pas de chance non plus, le service de Canal ne référence aucun film de Steven Spielberg, il faudra faire avec l’un des trois sur Netflix, et pas forcément les meilleurs ( Hook , AI et Arrête-moi si tu peux ). Le maître des films explosifs, Michael Bay, a un tout petit peu plus de chance et on trouve les deux premiers Transformers et Bad Boys sur Netflix ; sur Canalplay, il faudra se contenter du duo de flics, ou se reporter sur The Island . Oubliez les Marvel, il n’y en a que deux côté Netflix ( Watchmen et Les 4 fantastiques ) et aucun en face. Et si vous êtes plutôt DC Comics, ce n’est guère mieux : le Superman Returns de Bryan Singers en est le seul représentant, avec les Batman de Nolan que l’on évoquait plus haut.Vous êtes plutôt science-fiction ? Ne comptez pas sur Star Wars et pour Star Trek , il faut se contenter du premier volet réalisé par J.J. Abrams (la suite est trop récente de toute manière), uniquement sur Netflix. Ce réalisateur est présent pour certaines séries, mais pas pour ses films. Plutôt un western ? Clint Eastwood est bien référencé, mais en tant que réalisateur avec trois films de chaque côté ( Créance de sang , Space Cowboys et le récent Invictus pour Canalplay ; Lettres d’Iwo Jima — mais pas le pendant américain –, Mystic River et Les pleins pouvoirs pour Netflix). On pourrait ainsi multiplier les exemples, mais l’essentiel est dit. Les catalogue de Netflix et de Canalplay sont parcellaires, au mieux. Quand ils n’ignorent pas totalement un cinéaste ou un acteur, ils ne propose presque jamais leur filmographie complète. Un exemple intéressant avec Robin Williams : Netflix ne propose que six films avec l’acteur, et encore, cinq seulement où il joue ( Happy Feet est dans la liste) et dans le lot, quelques films mineurs, mais pas Le Cercle des Poètes Disparus . Canalplay n’en a que cinq, certains en commun, d’autres différents, mais là encore, on est loin du compte. Quel que soit le genre considéré, ces services sont faciles à prendre en faute. Jusque-là, on a surtout évoqué Hollywood, mais c’est pire encore quand on veut se faire une culture française. Netflix liste cinq films de Jean-Luc Godard ( Le mépris , À bout de souffle , Pierrot le fou , Alphaville et le récent Film Socialisme ), aucun pour Canalplay. En revanche, la filmographie de Luc Besson est plus complète sur Canalplay avec cinq films (de Subway à Jeanne d’Arc , en passant par Le Grand Bleu , Nikita et Léon ), mais le cinéaste est aux abonnés absents sur l’américain.Ne cherchez pas Louis de Funès, l’acteur est inconnu des deux côtés. Jean Reno ? Quatre films chez Netflix, mais uniquement des seconds rôles dans des productions américaines, six pour Canalplay, dont une majorité de premiers rôles. Jean Dujardin n’a droit qu’au Bruit des glaçons côté américain et c’est à peine mieux côté français (en plus d’ Un gars, une fille , Contre-enquête et L’amour aux trousses ). Catherine Deneuve est mieux lotie avec sept films pour Netflix, six pour Canalplay. Les Barbouzes sont au rendez-vous sur Canalplay uniquement, mais pas Les Tontons Flingueurs .Catherine Deneuve sur Netflix (gauche) et sur Canalplay (droite)Si vos goûts sont plus exotiques, mieux vaut oublier Netflix ou Canalplay. Le premier a une section dédiée au cinéma étranger, avec des sous-catégories par grandes régions. Ce qui permet de se faire rapidement une idée : avec neuf « films du Moyen-Orient » ou 40 films britanniques — ce qui n’est pas très exotique, il faut le reconnaitre –, vous aurez vite fait le tour de la question. Canalplay fait un petit peu mieux (six films de Pedro Almodóvar pour ne prendre qu’un exemple), mais son catalogue international reste limité.Pour les petits… et les grands Netflix comme Canalplay proposent des fonctions réservées aux enfants. Pour le premier, chaque utilisateur associé à un compte doit créer un profil et indiquer son âge. En fonction de ce paramètre, le catalogue est restreint pour n’afficher que le contenu adéquat. Les enfants disposent même d’une section dédiée qui met en avant leurs personnages favoris, de Toy Story à la princesse Barbie, en passant par Pac-Man, la Fée Clochette ou encore Pokémon. Du côté de Canalplay, c’est le même principe, mais le service français va un petit peu plus loin avec Canalplay KIDS , une application réservée aux enfants. Sur le site, on a aussi une section spécifique avec les personnages ou les séries mis en avant. Le service de Canal a quelques arguments à faire valoir avec son application : outre que l’enfant n’a vraiment accès qu’au contenu adapté, les parents peuvent aussi définir une limite quotidienne et ainsi mieux contrôler ce qui se passe. Côté contenu, on est loin de pouvoir regarder tous les Classiques Disney, mais il y a de quoi tenir quelques soirs avec des enfants. Bambi (et même sa suite) par exemple est présent des deux côtés, tout comme Cendrillon , Dumbo ou encore Hercule , mais ni Le Roi Lion , ni La Petite Sirène , ni Aladdin . Bizarrement, les Disney présents sur un service le sont aussi systématiquement sur l’autre service, et réciproquement. Ce n’est pas beaucoup mieux avec les Pixar : on trouve les Toy Story , Le Monde de Némo et les deux Cars , mais pas Monstres et Compagnie , pas Wall-E , ni Ratatouille . Quant aux films produits par le studio Ghibli, ils sont aux abonnés absents, pour Netflix et pour Canalplay. Si vos enfants sont fans de séries animées, il y a plus de choix, mais là encore ne comptez pas sur l’exhaustivité : il y a les premières saisons de Totally Spies , de Bob l’éponge et celle de T’Choupi sur Canalplay, mais rien sur Netflix. On trouve quelques Dragon Ball Z sur Netflix, deux saisons de Dora l’exploratrice sur Canalplay.Pour les dessins animés, mieux vaut compter sur Canalplay qui semble mieux fourni, quoique le service ne dispose en général que d’une saison par série. Dans l’ensemble toutefois, on souhaite bien du courage aux parents pour expliquer pourquoi on peut regarder Cars , mais pas Le Roi Lion …Les deux services proposent des services et fonctions spécifiques aux enfants. Pour les adultes, seul Canalplay propose une section « Adulte -18 » avec, a priori (on ne peut pas y accéder pendant le mois d’essai), quelques films érotiques, voire pornographiques. Rien du côté de Netflix, où les seules sensations fortes sont à chercher du côté des films d’horreur.Sur le plan techniqueQuand on a réglé la question du contenu et que l’on s’intéresse à la partie plus technique, les deux offres sont assez proches mais avec leurs spécificités aussi. Côté tarifs déjà, aucune originalité : Netflix, comme Canalplay, facturent l’accès aux films et séries autour de 10 EUR par mois. Dans les deux cas, on a une offre à 8 EUR par mois et une à 10 EUR, mais les deux services distinguent leurs offres différemment.Avec Canalplay, la distinction est assez simple : si vous voulez accéder au contenu sur votre téléviseur, il faut payer 9,99 EUR ; si vous ne souhaitez regarder que depuis un ordinateur, une tablette ou un smartphone, vous pouvez payer un euro de moins chaque mois. A priori , le service ne « voit » pas un ordinateur relié à une télévision : si vous avez, comme nous, un Mac mini sous votre TV, vous pouvez économiser un peu. Les 10 EUR mensuels sont obligatoires pour accéder aux vidéos depuis votre box ADSL compatible, un Apple TV ou une console compatible.Cliquer pour agrandirDu côté de Netflix, il n’y a pas deux, mais trois niveaux, avec une distinction à la fois sur la qualité et sur le nombre d’écrans : * 7,99 EUR par mois  : un seul écran, et uniquement en qualité standard (pas de HD) ; * 8,99 EUR par mois  : qualité HD (1080p) et deux écrans en simultané ; * 11,99 EUR par mois  : quatre écrans en même temps et Ultra HD (4k) pour les contenus compatibles. Pour accéder à la 4K, il ne suffit pas de payer pour l’option, il faut aussi un téléviseur compatible et ils ne sont pas nombreux. Il faut également du contenu en 4K et pour le moment, c’est encore plus limité, sachant que House of Cards n’est pas disponible en France.Cliquer pour agrandirPour lire du contenu, les deux services sont identiques sur le papier, mais pas tout à fait autant dans les faits. Netflix et Canalplay sont tous accessibles depuis n’importe quel ordinateur, depuis les appareils mobiles (dont iPhone et iPad) et depuis un appareil branché à un téléviseur, voire un téléviseur connecté. Côté points communs, les deux disposent d’une application iOS (Netflix / Canalplay) et les deux sont accessibles depuis l’Apple TV. Pour le reste, ça se corse. Netflix est disponible sur un grand nombre d’appareils reliés à un téléviseur. Outre l’Apple TV donc, on peut accéder au service avec une console (PlayStation 3 ou 4, Xbox 360, Wii et Wii U), avec certains modèles de lecteurs Blu-ray signés Panasonic, Samsung et Sony, certaines TV connectées de Toshiba, Samsung, Panasonic et Sony ou encore certains systèmes home-cinema intégrés de Panasonic. Côté Canalplay, c’est moins riche : Xbox 360 et Apple TV. En revanche, le service de Canal+ se rattrape pour le moment avec les box des fournisseurs d’accès à internet. Alors que Netflix n’a signé d’accord avec aucun acteur en France, son concurrent est déjà disponible sur les box de Free, d’Orange, de SFR et de Bouygues. Cet avantage sera de courte durée toutefois : dès le mois de novembre, Netflix commencera également à être intégré aux box (lire : Netflix disponible en novembre chez Bouygues Telecom… et chez Orange).Liste d’appareils compatibles avec NetflixSur un plan à la fois technique et contenu, un point rapide sur les langues. Netflix est un nouveau-venu sur le secteur, mais il fait un sans faute. Nous n’avons pas trouvé de contenu qui ne soit pas doublé en français ou, mieux, sous-titré en français. Dans ce cas, on a une vraie version originale sous-titrée : pour un film turc, vous aurez donc les voix en turc, sous-titrées en français. Un excellent point pour les cinéphiles, qui place le service au-dessus de Canalplay. En théorie, le service de Canal+ propose les films et séries en VOST, mais nous n’avons pas mis longtemps à trouver un cas (l’indépassable Volver de Pedro Almodóvar) sans les sous-titres. Même quand ils sont présents, ils sont moins bons que ceux de Netflix : mieux définis, ils sont aussi placés en bas en temps normal, mais en haut quand c’est nécessaire, une méthode trop rare. Autre bon point, ils ont toujours été parfaitement synchronisés chez l’américain, alors que l’on a eu plusieurs cas avec léger décalage pour Canalplay.Réglage des sous-titres avec Netflix : on peut choisir la langue de l’audio et des sous-titres et on peut même modifier l’aspect des sous-titres dans les paramètres de compte. Ici, l’affichage par défaut.Pour le moment, Netflix comme Canalplay exploitent le module Siverlight de Microsoft, qu’il faudra ainsi installer si vous utilisez les services avec un Mac. Le service américain dispose sur ce point d’une avantage très intéressant : avec OS X Yosemite qui sortira en octobre, le streaming se fait uniquement en HTML 5, sans plugin. Les fonctions sont les mêmes, mais on peut profiter du service sans installer quoi que ce soit d’autre. À notre connaissance, rien de tel n’est prévu pour son concurrent français. Pour utiliser Netflix, une connexion internet d’au moins 0,5 Mo/s est nécessaire. Du moins, ça c’est la théorie : en pratique, avec une connexion dix fois plus rapide, il ne faut pas compter sur la HD et l’image est moyenne, voire médiocre selon le débit réel disponible. Dans l’ensemble, avec un ordinateur, la qualité est moins bonne qu’un DVD et même si l’image se rapproche de ce que l’on peut obtenir avec ce format physique, le son reste loin.Netflix permet en effet de connaître le niveau de compression de la piste audio en utilisant l’un des raccourcis claviers dénichés par NextInpact. Pendant la lecture, utilisez le raccourci `?ctrl?S` pour obtenir un petit panneau d’information qui affiche les bitrates actuellement utilisés pour la vidéo et l’audio. Vous pouvez limiter le débit nécessaire en réduisant le bitrate vidéo, mais comme vous le constaterez vite, vous ne pouvez pas obtenir un son de très bonne qualité, du moins pas sur un ordinateur.Dans tous nos essais, 96 Kb/s est le bitrate maximum pour l’audio, que ce soit avec la fibre ou avec l’ADSL. Cela ne vous parle pas, mais si vous comptez utiliser Netflix avec un home-cinema, vous l’entendrez : le son est étouffé et il est loin d’utiliser les cinq canaux de 5.1. La bonne nouvelle, c’est qu’il suffit d’utiliser autre chose qu’un ordinateur pour obtenir une bonne qualité sonore. Avec un Apple TV, le son est plus clair et il est multi-canal : c’est important notamment pour mieux entendre les voix, placées sur l’enceinte centrale.Canalplay propose par défaut un contrôle plus précis sur la qualité de la vidéo, avec même un graphique en temps réel du débit de la vidéo et quelques statistiques supplémentaires, comme le nombre d’images par seconde. On peut modifier la qualité, mais plutôt pour réduire la bande-passante utilisée : par défaut, le service choisit les meilleurs paramètres possibles, en fonction de votre connexion. La qualité sonore est bonne, meilleure que Netflix sur un ordinateur, moins bonne dans tous les cas que sur un DVD ou un Blu-ray. NavigationQuel que soit le moyen d’accéder au contenu, Netflix et Canalplay proposent plusieurs moyens de trouver le film ou la série à regarder. Sur ce point, le service français est à la traîne : la recherche est plus lente que celle de son concurrent, où les résultats s’affichent pratiquement en temps réel. Et comme on le voyait précédemment, Netflix est meilleur pour présenter du contenu alternatif quand il n’a aucun résultat à vous donner. De ce fait, même si on ne trouve pas ce que l’on veut, on a d’autres options qui peuvent faire l’affaire. House of Cards n’est pas disponible, mais Netflix connaît cette série et peut proposer des alternatives en rapport. Même si le rapport n’est pas toujours évident, c’est mieux qu’une page vide.La grande force de Netflix, c’est son immense base de données qui lui permet de proposer des suggestions adaptées à chaque utilisateur. En fonction de ce que vous regardez, le service saura vous proposer des films et des séries qui pourront vous plaire. Comme la fonction Genius d’iTunes, Netflix analyse vos goûts et doit vous proposer des choses que vous avez envie de voir.Au départ, vous n’aurez rien vu et Netflix vous posera une série de questions pour déterminer vos goûts. Cela fonctionne sans doute, mais c’est contraignant et les questions sont très orientées cinéma anglo-saxon. Pour vous suggérer du contenu, on peut aussi connecter son compte Facebook et voir ainsi ce que ses amis regardent. C’est plus facile, et si vous avez plusieurs amis qui utilisent Netflix, c’est un bon moyen d’obtenir des suggestions intéressantes. Netflix adapte en permanence les contenus proposés en fonction de vos goûts. Ici, on a une liste spécifiquement pour un utilisateur, mais même la catégorie suivante dépend de deux films appréciés.De son côté, Canalplay a fait un choix très différent et on a une organisation éditoriale. Ce n’est pas un robot qui a créé des rubriques comme « Trône et dragons » (n’espérez pas, Game of Thrones n’est pas dedans), « Les touristes attaquent ! » ou encore « 20 films, 200 morts et aucun de cause naturelle… » C’est une très bonne idée, surtout pour se distinguer du tri totalement automatique de son concurrent, mais les catégories proposées ne sont pas toujours celles qui nous intéressent. Sans compter que certaines collections sont vides, ce qui est assez étrange…Pour conclure…Les suggestions de Netflix ont fait leur preuve outre-Atlantique, il n’y a pas de raison qu’elles soient moins utiles ici. Sur le plan technique, qu’on utilise un ordinateur, les applications iOS ou un Apple TV, le nouveau-venu a indéniablement une longueur d’avance. Mais une interface de navigation, aussi bien pensée soit-elle, n’est rien sans contenu. Et c’est bien là que le bat blesse. Notre comparaison n’a aucune valeur scientifique naturellement, et Netflix vient de débarquer en France et peut naturellement progresser. L’exemple canadien a déjà montré que le contenu pouvait évoluer rapidement et on gardera un oeil attentif sur le catalogue en France dans les prochains mois. Pour le moment, il n’y a en tout cas aucun vainqueur qui se dessine.En règle générale, le contenu proposé sur Canalplay ne l’est pas sur Netflix, et vice-versa. Même en combinant les deux catalogues, on est loin du compte : la chronologie des médias explique l’absence de nouveautés, elle n’excuse pas les lacunes pour le contenu plus ancien. Il manque trop de films cultes, trop de chefs-d’oeuvre du septième d’art pour que l’un comme l’autre puisse prétendre à l’exhaustivité. Personne n’attend un catalogue exhaustif, jusqu’au moindre court-métrage produit par tous les réalisateurs de tous les pays. Mais on aimerait bien être moins souvent déçu avec une recherche sans résultat. Sur ce point, Netflix ne fait pas mieux que Canalplay : les deux acteurs doivent faire un gros effort pour améliorer leur catalogue. Les amateurs de séries sont un peu mieux servis, mais même dans ce cas, on a trop de blocages liés à de gros contrats signés par les acteurs du marché.L’utilisateur n’a que faire de ces accords. Par contre, s’il veut voir n’importe quelle série ou n’importe quel film, il trouvera toujours plus facilement son bonheur par des voies illégales…

Read more

Pourquoi attend-on de nos séries qu’elles…

Le Monde

I l y a une vingtaine d’années Umberto Eco faisait ce constat:  » la série nous réconforte (nous autres consommateurs) parce qu’elle récompense notre aptitude à découvrir ce qu’il va se produire. (…) mais loin d’attribuer cet heureux résultat à l’évidence de la structure narrative nous l’imputons à nos prétendues aptitudes au pronostic « [1]. A l’époque où s’exprimait le philosophe italien, la fiction horrifique était un genre ancien largement présent au cinéma et en littérature mais quasiment inexistant à la télévision.Depuis quelques mois, le petit écran s’amuse à nous faire peur, à susciter en nous les sentiments de l’effroi et de l’horreur, quitte en apparence à ne plus remplir ce rôle rassurant qu’elle assume depuis si longtemps. Des séries comme The Walking Dead, The Strain , Helix , American Horror Story , Penny Dreadful ou nouvellement Intruders jouent avec nos peurs et cela marche. Cela marche même si bien qu’on pourrait se demander si les séries horrifiques n’ont pas démocratisé la peur et ne sont pas devenues le nouveau moyen de se rassurer. Il n’est pas besoin de revenir au Nosferatu de Murnau (1922) ou à  » Je Suis Une Légende  » de Richard Matheson (1954) pour se convaincre que l’horreur est un genre ancien, souvent exploré par les romanciers et les cinéastes mais finalement peu par l’industrie du divertissement familial grand public qu’a longtemps incarné la télévision. Il faut dire que l’horreur est demeurée un sujet de niche, essentiellement destiné à occuper les soirées pyjamas des adolescents et apprécié par un petit nombre de connaisseurs, mais soigneusement tenu à l’écart de la majorité des spectateurs.Si vous vouliez regarder un film de vampires avec Christopher Lee dans les années 80, il fallait attendre minuit (c’est toujours mieux à cette heure symbolique) pour que votre chaîne favorite vous le propose, un peu honteuse, du bout des lèvres. Quand il existait encore un nombre suffisant de salles de cinéma indépendantes à Paris, certaines proposaient ce type d’attractions, mais là encore, il fallait savoir où chercher.L’horreur avait en elle un caractère trangressif tant sur le fond (les thèmes étaient le plus souvent liés à la violence) que sur la forme (la représentation de cette violence étant parfois très explicite).  Sans mettre les deux choses sur le même plan, on pourrait dire qu’aller voir un film d’horreur provoquait avant même d’entrer dans la salle un frisson d’interdit comme pouvait en donner la perspective d’aller voir un film pornographique. L’horreur est destinée à provoquer la peur, le porno les pulsions sexuelles. Et les films de vampire avaient ceci de particulier qu’ils réunissaient dans une même métaphore nos deux pulsions primales. Eros et Thanatos.Il fallait être adulte du point de vue de la loi pour obtenir un ticket de la caissière à demi-endormie mais complètement fatiguée qui trônait dans une guérite vitrée à l’entrée de l’établissement. On pouvait avant même de s’être engouffré dans une salle noire et à demi-vide sentir une forme de réprobation collective à l’envie qui nous animait: l’horreur a longtemps été perçue comme l’expression d’un mauvais goût, la traduction d’une forme de vulgarité qui ne correspondait pas aux sentiments d’une civilisation prétendument sophistiquée. Montrer ce qu’il faut L es critiques du genre horrifique n’imaginaient pas (ou ils se gardaient bien de dire) que l’horreur pouvait nous inciter à réfléchir, à mieux appréhender le monde qui est le nôtre et qu’elle répondait à un besoin impérieux et ancestral. Voici le constat que fait Elizabeth Barrette dans un article intitulé  » Elements of Aversion « . » So we told each other stories through the long, dark nights…when the fires burned low, we did our best to scare the daylights out of each other. The rush of adrenaline feels good. Our hearts pound, our breath quickens, and we can imagine ourselves on the edge. Yet we also appreciate the insightful aspects of horror. Sometimes a story intends to shock and disgust, but the best horror intends to rattle our cages and shake us out of our complacency. It makes us think, forces us to confront ideas we might rather ignore, and challenges preconceptions of all kinds. Horror reminds us that the world is not always as safe as it seems, which exercises our mental muscles and reminds us to keep a little healthy caution close at hand « .Ce que décrit l’auteur est l’expérience que probablement chacun d’entre nous a déjà vécue et la conclusion à laquelle nous sommes souvent parvenus. Ce qu’il convient d’ajouter est que pour aboutir à ce résultat (le rush d’adrénaline mais aussi l’interrogation sur le monde qui nous entoure), l’horreur exige un talent d’écriture et de mise en scène qui ne souffre pas la médiocrité. Un talent capable de prendre en compte les exigences qui conduiront à coup sûr à l’effet désiré.On l’a récemment vu avec les nouvelles séries horrifiques proposées notamment aux Etats-Unis, il est très facile de passer complètement à côté de son sujet. L’exemple le plus flagrant a sans doute été Helix, série de Ronald D. Moore (le père de Battlestar Galactica ) dont le scénario manquait d’équilibre.Tout reposait sur le seul mystère, les secrets des différents protagonistes et les manipulations qu’ils conduisaient en sous-main. Il ne fallait pas plus de deux épisodes pour s’ennuyer face à cette contagion qui avait gagné une base scientifique dans l’Arctique où débarquaient un épidémiologiste de renom et sa très jolie assistante.Pour bien fonctionner, une série d’horreur doit trouver un juste dosage entre ce que l’on montre et ce que l’on cache. Montrer trop conduit à sombrer dans le ridicule, dans le récit horrifique manqué auquel on ne croit pas et qui ne fait pas peur. Montrer trop peu conduit à un détachement du spectateur qui n’éprouve aucun sentiment pour les personnages. La politique du « care » C ‘est exactement ce qui se produit dans Intruders ( BBC America ), une histoire de société secrète dont les membres cherchent l’immortalité en occupant le corps d’autres personnes. La complexité de la mise en place des enjeux est telle dans le premier épisode que l’on n’éprouve plus aucune empathie pour les victimes et que l’on se moque de ce qui peut leur arriver.Car le récit d’horreur repose effectivement sur les sentiments d’effroi, voire de répulsion, qu’il peut provoquer mais aussi et presque autant sur la notion de  » care  » (que l’on pourrait traduire dans ce cas par « attachement » ou  » investissement psycho-affectif « ). C’est ce qui fait que The Conjuring , film de James Warren sorti l’an dernier, atteint son but au-delà des références à d’autres grands titres ou au respect des canons du genre.Qu’on le veuille ou non, on éprouve des sentiments pour ce couple de chasseurs de fantômes qui interviennent dans une maison hantée du Rhode Island dans laquelle débarque une famille en 1971, suivant des faits inspirés d’expériences paranormales recensées dans l’ouvrage The Amityville Horror . Ce « scénario » était aussi celui de la première saison d’American Horror Story, l’anthologie que l’on doit à Ryan Murphy et Brad Falchuk.Cette production, qui va entamer sa quatrième saison et qui démontre une étonnante qualité et une superbe connaissance du genre, est elle aussi fondée sur cet attachement par lequel le spectateur se préoccupe du sort des personnages. La série y ajoute une esthétique très stylisée, proche de l’irréel comme si les images qui défilaient sous nos yeux étaient des rêves éveillés.Et là encore, le but est atteint. Car l’horreur a cette particularité de ne pas disparaître lorsque vous fermez les yeux. Elle continue à exister malgré tout, vous continuez à la voir sur l’écran noir de vos paupières. On n’échappe pas à l’horreur. L’art de l’anticipation D ans un article consacré à The Conjuring, le journaliste Tom Shone de The Guardian faisait une référence au final de The Shining , l’ouvrage de Stephen King adapté au cinéma par Stanley Kubrick. Dans cette dernière scène où Jack Nicholson meurt de froid au milieu d’un labyrinthe végétal, Kubrick enferme le spectateur dans la folie du personnage principal. « (…) there are no exteriors in the best horror movies, only interiors, no bogeyman worse than a stray thought « , concluait l’article.L’un des artifices de l’horreur est d’imposer un rythme qui maintienne en permanence le spectateur en alerte. Qu’il le veuille ou pas, ce dernier éprouve le besoin de continuer à regarder parce qu’il anticipe ce qui va se produire et qu’il se sent concerné par les événements.L’emballage est évidemment essentiel (lumière, musique, cadrage, expressions, enchaînement des plans, etc.). Afin que le spectateur ne décroche pas, il a besoin d’être régulièrement stimulé voire malmené. La scène concluant le 7ème épisode de The Strain est de ce point de vue exemplaire car elle respecte parfaitement le triptyque du suspense. [ spoiler alert pour le paragraphe suivant]Des enfants accompagnés par leur nourrice et la fille de celle-ci reviennent chez eux où ils anticipent (et nous aussi) un danger: leur mère s’est transformée en monstre. Ce soupçon est confirmé et il s’ensuit une augmentation de la tension quand la mère menace de s’en prendre à sa progéniture jusqu’à ce que survienne un retour à la normale: la mère est brusquement éliminée par un intervenant extérieur. La tension retombe avant de remonter encore plus vite et encore plus haut, le danger qui vient d’être écarté était moindre que celui qui est tout à coup révélé. Fin de l’épisode, on est assis sur le bord de son fauteuil. [ fin du spoiler ]L’horreur repose toujours sur l’irruption de l’extraordinaire, de ce qui n’est pas scientifiquement explicable, de ce qui relève du seul constat, dans l’ordinaire et le quotidien. Cela peut prendre la forme de morts qui retrouvent la vie (on pense aux étonnants films de George Romero, voire à H.P. Lovecraft) : la sérié télévisée (plus que les  comics ) The Walking Dead a ainsi largement contribué à démocratiser le genre zombies pour en arriver par exemple à un blockbuster grand public comme World War Z .Cela peut aussi être des buveurs de sang modernisés avec The Strain ou encore des manipulations virales (Helix) ou encore l’expression de puissances occultes comme dans Penny Dreadful, série de Showtime et Sky Atlantic produite par Sam Mendes faisant référence aux feuilletons macabres et bon marché (un penny) vendus en Grande-Bretagne à la fin du XIXe siècle. Menace globale D ans tous les cas, la menace porte sur l’ensemble de l’espèce humaine et la peur inspirée renvoie à des peurs collectives de la société (disparition, maladie, torture, souffrances physiques, déchéance, etc.) Il semble que les dernières séries en date fassent une part belle à la médecine et aux virus et parasites de toutes sortes.Ce choix présente deux avantages: une propagation rapide de la destruction et un combat d’autant plus difficile qu’il exige un remède indisponible, coûteux à fabriquer et exigeant des compétences rares pour sa mise au point. L’eau bénite, les crucifix, l’argent ou la lumière du jour restent encore efficaces mais ils ne sont plus suffisants pour éradiquer la menace.La ritualisation propre à la lutte contre la maladie demeure mais elle doit être assortie d’autres procédés, ce qui accroît évidemment l’intérêt et multiplie les possibilités scénaristiques. Le récit d’horreur s’est sophistiqué sans pour autant perdre son caractère original qui doit être suffisamment direct et explicite pour permettre une anticipation et une compréhension simple du danger par le public.Le menace virale (si on peut l’appeler comme cela) a enfin un autre intérêt:  elle est quasiment invisible et on en prend conscience une fois qu’il est (presque) trop tard. Le combat en devient d’autant plus désespéré. On pourrait voir sans cette évolution une prise en compte des peurs diffuses qui traversent actuellement les sociétés occidentales, une représentation de menaces latentes, l’expression de craintes face à des dangers invisibles, inconnus et que l’on peine à anticiper.Cela pourrait expliquer le succès et le nombre de ces séries horrifiques en ce qu’elles répondent à un nouveau besoin de se rassurer. Car ce que l’on anticipe dans une fiction d’horreur c’est l’apparition de la menace mais c’est aussi et surtout un possible retour à une normalité qui prévalait avant que la catastrophe se déclenche.Ce que l’on attend des fictions d’horreur, c’est retrouver l’espoir que l’on puisse être sauvés, que tout n’est pas perdu, que la menace a été réduite à un niveau tolérable, à défaut d’avoir été totalement éradiquée. Ce que nous apportent les séries horrifiques, c’est cette assurance que les choses perçues comme insupportables vont devenir vivables.Que les lendemains ne vont pas chanter (on a perdu cette naïveté depuis longtemps), mais qu’ils ne résonneront plus de cris et de fureur.  [1] Innovation et répétition : entre esthétique moderne et post-moderne. Umberto Eco, Réseaux, 1994, Volume 12.Signaler ce contenu comme inapproprié

Read more

Test de la Nvidia Shield Tablet : le Tegra K1…

Frandroid

Nvidia nous avait invités à venir assister à la présentation de la Shield Tablet il y a quelques jours. Nous étions repartis plutôt frustrés puisqu’il avait été impossible de tester réellement la tablette. Quelques jours plus tard, nous avons reçu le Graal pour pouvoir en faire un test plus complet qu’une simple prise en main. La Shield Tablet ne se positionne pas comme une Shield 2, mais plutôt comme une cousine de la Shield première du nom devenue Shield Portable. Les usages ne sont donc pas exactement les mêmes : voyons les qualités et les défauts de cette tablette hybride.La Shield Tablet est le premier produit entièrement fabriqué et vendu par Nvidia en Europe sur le segment des appareils mobiles. La Shield Portable n’est pas, pour le moment, disponible en Europe, mais uniquement en Amérique du Nord. Nous avions d’ailleurs réalisé un test de cette console portable il y a quelques mois, en l’achetant au Canada. Avec la Shield Tablet, Nvidia compte bien se lancer sur la plupart des marchés mondiaux avec tout d’abord l’Amérique du Nord et l’Europe avant d’aller voir ailleurs.Nvidia mise beaucoup sur ce produit puisque l’entreprise espère qu’elle se distribuera de manière moins confidentielle que la Shield Portable. Pour cela, les équipes du géant vert ont décidé de couper en deux la console. On retrouve donc la base, soit une tablette, puis des accessoires qui viennent la transformer en console. On trouve ainsi une manette qui peut-être achetée pour 59 euros ou encore une cover qui se transforme en pied, facturée 39 euros. Pour le moment, la Shield Tablet est la tablette la plus puissante (avec la MiPad) du monde grâce à son puissant SoC Tegra K1. La fonctionnalité GameStream est également inédite sur une tablette : elle permet de jouer à un jeu PC sur sa Shield Tablet, comme le faisait déjà la Shield Portable. Le potentiel de cet appareil est donc énorme et nous allons voir si Nvidia a réussi à suivre la recette magique.  Le Tegra K1 au centre de la tabletteModèleNvidia Shield TabletVersion AndroidAndroid KitKat 4.4.2Ecran8 poucesDéfinition1920 x 1080 pixelsTechnologieDalle IPS LCDRésolution275 pixels par pouce (ppp/ppi)Traitement contre les chocs & rayuresNonSoC (System on a Chip)Tegra K1Processeur (CPU)Quatre Cortex-A15 @ 2,2 GHz + un Cortex-A15 (coeur compagnon)Chipset graphique (GPU)Kepler, 192 unités de calcul (Cuda Cores)Mémoire vive (RAM)2 GoMémoire Interne16 Go (Wi-Fi) 32 Go (4G)Support microSD-HCOui (SDXC)APN / Caméra5 MP (autofocus + HDR)Webcam (caméra frontale)5 MP (HDR)Vidéo1080p APN 720p webcamCarte SIMMicro-SIM sur version 4GWiFi802.11a/b/g/n 2×2 MIMO (2,4 et 5 GHz)BluetoothOui (4.0 LE)NFC (Near Field Communication)NonBoussole / GPSOuiAccéléromètre / GyroscopeOuiCapteur de lumièreOuiSortie jack 3,5 mmOuiPort micro-USB / HDMIMini HDMI 1.4a Micro-USB 2.0 (host et client)Batterie5197 mAhDimensions221 x 126 x 9,2 mmPoids390 gPrix299EUR (16 Go – Wi-Fi) 399EUR (32 Go – 4G)Le Tegra K1 est le dernier petit bijou de Nvidia. Pour la Shield Tablet, Nvidia a choisi la version 32 bits avec ses quatre coeurs Cortex-A15 assistés par un cinquième coeur compagnon, toujours un Cortex-A15, mais avec une fréquence revue à la baisse. Il aurait été intéressant de caser dans la tablette la version 64 bits du SoC avec ses deux coeurs Denver entièrement développés par Nvidia en se basant sur le jeu d’instruction ARMv8 utilisé sur les Cortex-A53 et A57. Au niveau de la mémoire vive, Nvidia a placé une puce de 2 Go de RAM, ce qui semble être suffisant pour Android.Lors de la conception de la tablette, on imagine bien que le choix de la taille de l’écran n’a pas dû être facile. Nvidia s’est orienté pour l’utilisation d’une dalle 16/10 IPS de 8 pouces d’une définition Full HD (1920 x 1200 pixels). On verra si dans les faits, le choix a été judicieux ou non. Dommage en revanche qu’aucun traitement anti-rayure style Gorilla Glass n’ait été retenu. Pour le prix, c’est une erreur d’autant que l’utilisation prônée par Nvidia (jouer en déplacement) voudrait qu’un tel traitement soit présent.Nvidia a tout misé sur la connectivité de la tablette. La version de base (16 Go) de la Shield Tablet supporte le Wi-Fi 802.11a/b/g/n 2,4 et 5 GHz 2×2 MIMO (dommage, pas de Wi-Fi 802.11ac qui aurait peut-être autorisé le streaming 1080p 60fps en local sans passer par l’Ethernet) ainsi que le Bluetooth 4.0 LE. La version 32 Go rajoute en plus le support de la 4G avec le modem Icera i500 du Tegra 4i. Deux versions du modèle 4G existeront. La première sera dédiée à l’Amérique du Nord avec le support des bandes des 1900, 1700, 850, 2600 et 700 MHz alors que la seconde est pensée pour le reste du monde avec le support des bandes des 2100, 1800, 2600 et 800 MHz. Le port mini HDMI 1.4a permet de relier la console à un écran en supportant une définition UHD/4K (3840 x 2160 pixels) @ 30 FPS ou 1080p @ 60 FPS. Le port micro USB permet quant à lui de relier la manette en mode filaire, de recharger la tablette ou de brancher n’importe quel périphérique USB (manette, clef, dongle Ethernet, etc.). Une tablette + une manette = une consolePour la Shield Tablet, Nvidia a laissé tomber la conception tout-en-un de la console hybride Shield Portable. À la place, on retrouve donc une tablette indépendante et une manette pour ceux qui voudraient profiter des fonctions vidéo-ludiques avancées. Il faudra en revanche obligatoirement se procurer le cover qui fait également office de support pour poser la tablette légèrement à la verticale sur une table. Le cover est indispensable pour compter jouer avec la manette puisque sans l’accessoire, il faudra poser la tablette à plat. Même avec la cover, on se pose des questions sur l’utilité de jouer avec la manette sur un écran de 8 pouces. Lorsque l’on joue sans manette, on prend la tablette entre nos mains et celle-ci est donc à une distance assez proche des yeux. En revanche, lorsque la tablette est posée sur une surface, comme une table de salon, la distance entre les yeux et l’écran est un peu trop importante. Bien installé au fond de son canapé, la tablette posée sur la table basse (rapprochée du canapé) on aura du mal à distinguer les détails. La Shield Tablet n’est clairement pas faite pour être utilisée avec la manette sans être reliée à un écran. C’est là où le combo tablette + manette prend tout son sens. Lorsque l’on pose la Shield Tablet à côté de la télévision et qu’on la relie en HDMI, le spectacle commence. Même avec des jeux Android, on a réellement l’impression de se trouver face à une console de jeu. On peut s’installer au fond de son canapé, et profiter de tous les titres Android sur son téléviseur. Qu’on soit un joueur, deux joueurs voire quatre joueurs, tout le monde verra l’écran et profitera des jeux. A côté, l’écran de 8 pouces paraît  ridicule et servira uniquement pour une utilisation tablette et pas console.Attardons-nous un peu plus sur le design de la tablette. La façade est visuellement réussite avec les deux bandes verticales (lorsque l’on tient la tablette à l’horizontale) grises percées qui font office de haut-parleurs. Ces deux bandes donnent d’ailleurs l’impression que la tablette est en aluminium. Grosse déception : ce n’est pas le cas. Dommage puisque ce matériau, noble pour un appareil électronique, aurait donné un cachet supplémentaire à l’ensemble et aurait permis une meilleure dissipation thermique du SoC.La finition de cette face avant n’est pas parfaite. On retrouve trois éléments : la dalle et les deux grilles de haut-parleur, qui ne sont pas très bien intégrées entre elles. Les bords de la tablette sont légèrement plus hauts que ces trois éléments, ce qui donne une sensation désagréable lorsque l’on passe le doigt dessus. C’est un détail, mais pour une tablette qui démarre à 300 euros, les détails comptent.Les bords saillants de la tabletteLa face arrière de la tablette fait immédiatement penser à la Nexus. Le revêtement est à peu près similaire. L’inscription Shield en profondeur vient se positionner parfaitement au centre de la coque, sans aucune autre inscription. En revanche, le matériau utilisé (ou son épaisseur) n’est pas exactement le même puisque par rapport à la Nexus 7, il y a certaines zones du plastique qui s’enfoncent si on force un peu et on sent les composants à travers. Un bon point pour le design : la présence de 4 sorties pour les deux haut-parleurs. En plus des deux sorties sur la façade, on retrouve deux sorties sur les côtés. De cette manière, le son a plus de chance de sortir de la tablette lorsqu’on la tient à la main.Quelques mots sur la cover : celle-ci possède deux faces : celle qui protège l’écran, au toucher peau de pêche et la face extérieure avec une texture rugueuse. Le point noir de cette cover, c’est l’inscription Shield qui commence à s’effacer 4 jours après le début du test. La cause : lors de l’ouverture/fermeture, le signe Shield vient frotter contre le bord de la tablette, effaçant au passage une partie des inscriptions techniques et administratives (batterie, certifications, etc.).  L’inscription est peu visible, mais tout de même, cela relève du défaut. Concernant la Shield Controller, la manette, elle ressemble fortement à la manette de la Xbox 360 niveau design. Elle dispose de deux sticks analogiques, de la croix directionnelle, de quatre boutons d’actions et de quatre gâchettes. Il y a également un pavé tactile en bas pour se servir d’une souris dans un jeu PC par exemple ainsi que les boutons pour régler le volume de la console. En haut, on retrouve un bouton d’allumage rétroéclairé ainsi que les boutons retour et accueil, mais aussi un bouton spécial Nvidia pour lancer le Mapper des contrôles ou le streaming Twitch et l’enregistrement des vidéos.La prise en main de la manette rappelle un peu la Shield Portable, mais en plus léger. Elle est un peu trop grosse pour être vraiment confortable. Après quelques heures de jeu, passer sur une manette de Xbox 360 fait du bien et on n’a plus envie de la quitter. Elle est en effet plus compacte et mieux finie sur certains aspects. Les gâchettes arrière sont en effet plus agréables sur la manette de la Xbox que sur celle de la Shield. C’est le même constat que pour la croix directionnelle. En revanche, les sticks semblent être les mêmes. Pour ceux qui hésiteraient à se procurer une manette de Xbox 360 pour relier à la Shield Tablet, pourquoi pas, mais de nombreuses incompatibilités vous attendent. Nous avons en effet branché une manette filière de Xbox 360 via un adaptateur USB OTG. Sous Dead Trigger 2, il était impossible de tirer avec la gâchette droite alors qu’on pouvait viser avec la gâchette gauche. Même en modifiant le bouton de tir, il était impossible de tirer. Sous Dead of Arrival 2, aucun souci n’a été à signaler. Plus que la Shield Tablet, les problèmes proviennent des jeux et d’Android de manière plus générale. Pour utiliser la version sans fil de la manette de la Xbox 360, c’est un peu plus compliqué puisqu’il faut un accès root. La manipulation est expliquée sur ce site.Nous avons également tenté de jouer avec la manette Xbox 360 avec la fonction GameStream qui permet de jouer à un jeu installé sur son PC sur sa tablette. La manette de la Xbox 360 se comporte de la même manière que le contrôleur Shield et il est donc possible de jouer aux jeux PC sur sa Shield Tablet avec une manette Xbox 360. Bien sûr, vous perdrez certaines fonctionnalités comme les boutons spéciaux qui permettent de lancer rapidement le streaming Twitch ou l’enregistrement vidéo. Un écran en retraitNvidia a eu le bonne idée d’utiliser une dalle IPS. Les angles de visions sont donc très ouverts et c’est une bonne chose si on tient vraiment à jouer avec sa tablette via la manette voire même à plusieurs autour de l’engin, si sa petite taille n’est pas trop gênante.La dalle de la Shield Tablet n’est pas excellente, mais n’est pas non plus mauvaise. Quand on la compare à la dalle excellente de la Nexus 7, on se rend compte que le blanc tire vers le jaune. Bon, c’est une question de préférence et c’est à la limite pas trop grave. En revanche, sur du gris, cela saute plus aux yeux. Concernant les couleurs, elles sont plus vives et plus fidèles sur la Nexus 7 que sur la Shield Tablet qui affiche des couleurs un peu ternes et délavées. Mais lorsqu’on utilise la tablette, on ne ressent pas de gêne particulière au niveau du rendu des couleurs. La luminosité de la Shield Tablet est bonne et semble supérieure à celle de la Nexus 7.Pour la définition, le Full HD semble être un bon compromis sur une dalle de cette taille. Nvidia aurait bien sûr pu aller jusqu’au WQXGA (2560 x 1600), mais le Tegra K1 aurait peut être pu montrer ses limites sur certains titres gourmands. De plus, le surplus de consommation ne vaut pas la peine, selon nous, de passer le pas sur une dalle de 8 pouces. Android KitKat « pur »Au niveau logiciel, Nvidia n’a pas créé sa propre ROM custom, mais se base sur Android KitKat 4.4.2. L’arrivée d’Android L est prévue, le plus rapidement possible après la disponibilité de la future version de l’OS mobile de Google selon Nvidia. Les habitués d’Android ne seront donc pas perdus. Nvidia a simplement rajouté des logiciels pour tirer parti des fonctionnalités spéciales offertes par la gamme Shield. Il y en a en tout quatre.L’application Contrôleur sans fil est présente afin de pouvoir relier facilement les Shield Controller avec la tablette. La liaison se fait en Wi-Fi direct et il faudra donc activer le Wi-Fi sous peine de ne pas pouvoir appairer la manette. L’application rajoute également une icône dans la barre de statut qui permet de vérifier l’état de la batterie présente dans la manette.L’application Mode console permet de choisir deux modes d’affichage lorsque la tablette est reliée en HDMI. On peut choisir le mode miroir avec l’affichage actif sur la tablette et sur l’écran HDMI. L’autre mode (mode console) permet d’éteindre l’écran de la tablette pour tout afficher sur l’écran externe. Lorsque l’on active ce dernier mode, la console doit redémarrer et ferme donc toutes les applications ouvertes.On retrouve également l’application Nvidia Dabbler. C’est l’outil de dessin 3D accéléré via le GPU du Tegra K1 qui utilise le stylet. Cette application permet de simuler de nombreux comportements (peinture à l’eau, à l’huile, etc.) et permet également de créer des peintures « 3D » grâce au jeu des reflets de lumière. Le rendu est assez bon lorsqu’on maîtrise le dessin. En revanche, il existe un léger retard entre le moment où le stylet touche l’écran et le moment où le trait apparaît à l’écran. Ce retard est minime (à peine un quart de seconde), mais il est présent et visible à l’oeil nu. Le stylet est également implémenté un peu plus profondément dans le système puisqu’il est possible de remplacer le clavier Android de base par un « clavier » Nvidia qui utilise en fait le stylet. Il est alors possible d’écrire avec le stylet et le système reconnait l’écriture manuscrite pour la transformer en caractère. Le système fonctionne plutôt bien et est capable de reconnaître mes pattes de mouches. Mais il est trop lent pour remplacer le clavier Android de base.Enfin, l’application Shield Hub est un peu le centre de la Shield Tablet. C’est le successeur de la Tegra Zone. C’est cette application qui va permettre d’avoir accès à la boutique qui répertorie les jeux optimisés pour les SoC Tegra. On retrouve également l’actualité des jeux Tegra (comme par exemple l’annonce de War Thunder sur les appareils Tegra K1). Deux catégories regroupent les jeux et les applications multimédias. C’est très pratique lorsqu’on active le mode Console puisque les grosses icônes permettent une meilleure visibilité lorsqu’on est au fond de son canapé. La dernière fonctionnalité du Shield Hub est GameStream qui permet de lancer, depuis la Shield Tablet, un jeu directement sur son PC qui sera streamé vers la tablette. Il y a deux possibilités : streamer depuis le même réseau local entre le PC et la tablette ou alors streamer via Internet. La tablette peut donc être chez vos amis tout en streamant un jeu installé sur votre ordinateur chez vous. La connexion passera par Internet, en 4G ou en Wi-Fi. Les jeux Android et les jeux PC (GameStream)Nous avons essayé la fonctionnalité GameStream avec Batman et Watch Dogs. Aucun souci n’a été rencontré, mais la fonctionnalité est très dépendante de la bande passante du réseau. Nous avons tenté trois manières différentes : un routeur certifié par Nvidia (Asus RT-AC68U) un autre routeur non certifié (Buffalo AirStation Nfiniti) et une connexion Ethernet via l’adaptateur USB OTG. Si la Shield est reliée au routeur en Ethernet, il est possible de streamer en 1080p à 60 fps. En Wi-Fi, il faudra se limiter au 720p à 60 fps. Aucun lag ou latence n’a été constaté sur le routeur certifié et la connexion Ethernet. En revanche, avec notre routeur non certifié, quelques lags ont été constatés. Plus que le routeur, il faut blâmer notre réseau interne puisque sur le Buffalo, une quinzaine de personnes étaient connectées. De plus, le Buffalo est relié à un autre routeur en passerelle, ce qui rajoute donc de la latence. Il n’est donc pas impératif de posséder un routeur certifié, mais au moins un appareil compatible avec la bande des 5 GHz en Wi-Fi 802.11a/n. Il est possible de connecter la Shield sur un réseau 2,4 GHz (802.11b/g), mais la bande passante disponible devrait baisser le débit d’image et donc la qualité.Watch_Dogs streamé vers la Shield Tablet reliée en HDMI à l’écranLes adaptateurs Miracast / WiDi 2.0 et Wireless-HDMI permettent également de streamer des jeux d’un PC vers un écran. Mais la latence élevée du WiDi et le coût exorbitant des adaptateurs Wireless-HDMI ne concurrencent pas la Shield Tablet. Il existe aussi une autre solution : le couple Limelight et Raspberry Pi pour les connaisseurs. La solution induit toutefois du lag. Pour GameStream, Nvidia limite malheureusement sa solution au support des GeForce. Votre ordinateur possède un Radeon d’AMD ? GameStream ne fonctionnera pas. Plus de 120 jeux sont certifiés compatibles avec le GameStream par Nvidia. Mais il est possible de streamer un jeu qui n’est pas répertorié comme compatible par Nvidia. Des soucis d’incompatibilité peuvent exister et notamment sur la configuration des touches. Il est également possible de streamer n’importe quelle application du moment qu’elle est en .EXE. Si on rajoute mstsc.exe (Windows Remote Desktop Connection), il sera possible de streamer l’intégralité de l’affichage Windows vers la Shield Tablet. Nous avons également rajouté le jeu Hearthstone qui se joue uniquement à la souris. L’expérience a été décevante avec le trackpad de la manette. Une souris en Bluetooth prendrait alors tout son sens, mais ferait perdre de l’intérêt à la solution comparé à un ordinateur portable.Sur les jeux qui ne supportent pas de base les manettes et qui font la part belle à la surface tactile, Nvidia propose toujours la fonctionnalité Game Mapper qui permet d’assigner une touche de la manette à une fonction tactile. L’opération prendra un certain temps, mais, une fois réalisée, elle vous facilitera la vie. Certains jeux (comme par exemple Real Racing 3) sont de base paramétrés par Nvidia. Il n’y a donc pas besoin de configurer Game Mapper.Il ne faut pas perdre de vue les jeux Android qui tournent tous sans problème avec le Tegra K1. Pour le moment, le catalogue n’est pas à la hauteur de la puce de Nvidia. Un peu comme si le constructeur proposait un SoC trop puissant pour ce que les développeurs proposent comme jeux actuellement. Une aubaine donc pour se servir de nouveaux moteurs graphiques et physiques encore plus réalistes pour se rapprocher un peu de l’expérience console next-gen ou PC.Pour rendre la Shield Tablet encore plus intéressante qu’actuellement, il faudra donc que les développeurs proposent sur Android des jeux convaincants tant au niveau du gameplay que des graphismes. Surtout, il sera intéressant de pouvoir profiter de titre multiplateformes. Vous commencez le matin à jouer sur votre titre sur votre ordinateur et à la pause de midi, vous reprenez la partie sur votre Shield Tablet. Ce sera bientôt possible avec War Tunder puisque le MMO est inter-plateforme et va être disponible sous Android. Au niveau des graphismes, le niveau de détail de Trine 2 nous a vraiment subjugués et le combo Tegra K1 + Android Extension Pack d’Android L devrait faire des ravages. La domination du Tegra K1Au niveau des performances, la Nvidia Shield surpasse tout ce qui se fait actuellement en puce ARM mobile. Sur AnTuTu, le Tegra K1 et ses quatre coeurs Cortex-A15 cadencés à 2,2 GHz obtiennent le score de 43 000 points. Sous IceStorm Unlimited, le Tegra K1 fait de l’ombre à tous ses concurrents avec 32 071 points. C’est la même chose sous GFXBench puisque la puce Kepler parvient à tenir 31,1 FPS dans Manhattan en 1080p Offscreen et 64,9 FPS dans T-Rex en 1080p Offscreen également. Pour Epic Citadel, aucun souci non plus puisque la Shield Tablet tourne aux alentours de 60 FPS.Dans les jeux, le Tegra K1 se débrouille aussi plutôt pas mal. Dans Half Life 2, le framerate varie entre 40 et 60 FPS selon les scènes. Dans Nova 3, le GPU peine un peu plus et le framerate varie entre 30 et 60 FPS (moyenne de 47 FPS). Enfin, dans Real Racing 3, le Tegra K1 se se comporte un peu mieux avec une moyenne de 51 FPS (mini 40 et maxi 60 FPS). A noter : par défaut, Real Racing 3 se lance avec les paramètres graphiques au minimum. Pour les modifier, il faudra passer par une méthode indiquée sur les forums XDA Developers.Avec les jeux PC et donc la fonctionnalité GameStream, la console ne lague pas puisqu’elle a simplement un flux H.264 à décoder. La principale limitation viendra donc de la qualité du réseau et de la puissance du PC. À ce propos, il faut un PC avec une carte graphique GTX 650 ou supérieure.Un petit mot sur la fréquence de fonctionnement du Tegra K1. Au maximum, le SoC atteint 2,2 GHz. Lors d’une partie de 15 minutes de Nova 3, le Tegra K1 a passé la majorité de son temps (80 %) entre 2,1 et 2,2 GHz. Ce test permet de savoir si la puce réduit drastiquement sa fréquence après une période de forte charge due à la chaleur. Dans le cas présent, il ne semble pas que la puce de Nvidia ne réduise trop sa fréquence même si elle semble le faire quelques fois, de manière très rapide. En tout cas, cela n’a pas d’influence majeure sur le framerate contrairement à des produits que nous avons pu tester comme le OnePlus One ou le LG G3.T-Rex 1080p (FPS) * Shield Tablet : 65 * Shield Portable : 23 * Find 7a : 28Dans le tableau récapitulatif des performances, nous avons comparé la Shield Tablet avec la Shield Portable mais également avec l’Oppo Find 7a. Le smartphone d’Oppo a été sélectionné puisqu’il intègre un Snapdragon 801 (le SoC de Qualcomm le plus puissant disponible actuellement) et que nous n’avons pas de tablette équipée d’un tel SoC. Nvidia Shield TabletNvidia Shield PortableOppo Find 7aSoCTegra K1Tegra 4Snapdragon 801AnTuTu43 00037 95636 266Epic Citadel (Ultra High Quality)59 FPS59,8 FPS58 FPSManhattan 1080p offscreen31,1 FPS-11T-Rex 1080p offscreen64,9 FPS22,5 FPS28 FPS3DMark IceStorm Unlimited32 07118 80020 139 Une autonomie en demi-teinteL’autonomie de la Shield Tablet laisse perplexe : si la capacité de sa batterie est supérieure à celle de la Nexus 7 (5 197 mAh contre 3 950 mAh), son autonomie est inférieure à la tablette de Google.. Sur de la navigation web ou une utilisation multimédia, la Shield Tablet parvient à tenir les 10 heures annoncées par Nvidia. En revanche, en jeu, l’autonomie s’effondre en étant bien plus faible que sa cousine la Shield Portable. Cela peut s’expliquer de diverses façons. Tout d’abord, même si Nvidia clame haut et fort que le Tegra K1 est très peu gourmand, il semble impossible d’obtenir des performances aussi excellentes tout en conservant une faible consommation. Au repos ou lors de faibles charges, le SoC de Nvidia se révèle peu gourmand en énergie. Mais dès qu’un jeu assez lourd est lancé, l’autonomie dégringole.De plus, la Shield Tablet possède un écran de 8 pouces comparé à celui de 5 pouces de la Shield Portable. Sa consommation est donc forcément en hausse, ce qui peut aussi expliquer la faible autonomie de la tablette comparée à la console. En jeu, il ne faut donc pas espérer plus de 2h30 / 3 heures de jeu continu. C’est presque deux fois moins que les 5 heures tenues sur la Shield Portable. Sur des jeux moins gourmands qui n’utilisent pas la totalité de la puissance du Tegra K1, il est sûrement possible d’augmenter l’autonomie.D’ailleurs, Nvidia permet de régler finement le comportement du SoC avec la partie Shield Power Control présente dans les réglages. Il est alors possible de modifier le comportement du processeur en sélectionnant le nombre de coeurs actifs (2 ou 4), mais également sa fréquence maximale (de 50 à 100 %). Il est également possible de bloquer le nombre maximum de FPS avec 4 paliers : 20, 30, 45 ou 60. Autant dire que le premier réglage est bien trop faible et que le système semble de toute façon déjà limiter le débit d’image à 60 fps. Seuls les paliers de 30 et 45 fps seront donc utiles, le deuxième semblant être un bon compromis. En limitant le framerate (images par seconde), la puce graphique a moins de charge et le SoC consomme donc moins.Deux capteurs pour … streamer !Nous allons rapidement aborder les deux capteurs photo présents sur la tablette et qui possèdent tous les deux une définition de 5 mégapixels. Les deux capteurs sont identiques avec une taille physique de 1/4?. Une différence est tout de même présente entre les deux lentilles puisque celle présente en façade dispose d’une ouverture de F/2,8 contre F/2,0 à l’arrière. La qualité est similaire entre les deux appareils photo et permet de capturer des photos potables, sans plus.La véritable utilisation du capteur frontal est en fait à chercher ailleurs. Nvidia propose des outils pour enregistrer ses parties en vidéo, mais aussi les streamer. Pour lancer le panneau de contrôle dédié, il suffit d’appuyer longuement sur la touche retour de la manette. Quatre possibilités s’offrent alors à l’utilisateur : lancer un streaming sur Twitch, activer l’auto record, le manual record ou prendre une capture d’écran. L’auto record peut enregistrer automatiquement et en continu les 20 dernières minutes d’utilisation de la tablette (en jeu ou non) alors que le manual record enregistrera sans limites de durée à partir du moment où il est activé.Grâce au capteur photo frontal, il est possible de rajouter sur un coin de l’image son portrait vidéo, que ce soit sur un stream, mais également sur un enregistrement vidéo. Le microphone de la manette permet lui d’enregistrer sa voix pendant l’enregistrement ou le stream. Le panneau de contrôle permet de régler la qualité du stream / enregistrement, mais aussi la transparence et la position de la vidéo superposée.ConclusionNotre VerdictautonomieL’autonomie de la Shield Tablet est sûrement le point le plus faible de la tablette de Nvidia. Dans les jeux, la principale utilisation de la tablette, l’autonomie n’est vraiment pas bonne. En utilisation davantage mixte du type web / vidéo, la tablette de Nvidia s’en sort bien mieux et tiendra plus longtemps loin du secteur. Le Tegra K1 semble donc assez gourmand et la dalle de 8 pouces n’arrange rien. La Shield Tablet devra donc plutôt être vue comme une tablette capable de se transformer en console portable lorsqu’il le faut. Il faudra alors la brancher au secteur pour compter s’en servir de manière prolongée. Son utilisation idéale : du multimédia / web sur batterie et des jeux gourmands lorsqu’elle est reliée au secteur et à la télévision en HDMI.caméraL’appareil photo dorsal de la tablette ne devrait pas beaucoup servir. En revanche, celui qu’on retrouve en façade devrait être souvent sollicité grâce à son intégration dans le streaming Twitch ou dans les enregistrement vidéo. Sa qualité est d’ailleurs plutôt bonne et Nvidia n’a pas fait l’erreur de placer un capteur de faible définition et une lentille médiocre.designLa Shield Tablet possède un design qui permettra de la reconnaître parmi les autres tablettes du marché. Les deux haut-parleurs en façade donnent du cachet à l’ensemble alors que le dos façon Nexus 7 est plutôt réussi. Mais lorsque l’on s’approche un peu plus près, on peu apercevoir quelques défauts de conception et de fabrication. On pense notamment à la coque arrière un peu trop flexible et aux arêtes légèrement trop saillantes sur le devant.logicielPour la partie logicielle, Nvidia a eu la bonne idée de conserver Android en version stock mais avec quelques applications qui viennent donner à la Shield Tablet la sensation d’avoir entre les mains une console portable. Le Shield Hub fait un peu penser au mode Big Picture de Steam, ce qui lui confère un intérêt particulier lorsque l’appareil est relié sur un grand écran. Les fonctionnalités de streaming et d’enregistrement vidéo sont vraiment un plus appréciables et qui évitent de complexes manipulation. Tout est à la portée de la manette. Enfin, la fonctionnalité GameStream est particulièrement bien intégrée à Android. Pour le moment, aucune solution concurrente n’existe et si vous voulez profiter de vos jeux PC sur tablette, la Shield Tablet est la seule solution.performancesLe Tegra K1 est vraiment le maître des SoC à l’heure actuelle. Aucune puce ne peut espérer dépasser ses performances et surtout en jeu. Dans le domaine vidéoludique, la puce qui se rapproche le plus est le Snapdragon 805 de Qualcomm que l’on commence à voir apparaître dans certains appareils mais qui est encore loin derrière le Tegra K1. La puce de Nvidia devrait donc conserver sa place de leader encore un petit bout de temps puisque même l’Adreno 430 du Snapdragon 810 devrait être moins performant.écranL’écran de la Shield Tablet n’est pas très bon. Il n’est pas mauvais mais il est simplement correct. Pour un produit dédié aux joueurs, on s’attendait à un peu plus de sérieux de la part de Nvidia sur cette partie de la tablette. De plus, 8 pouces est en format un peu trop bâtard pour cette tablette. Si la taille est très bien pour jouer à des jeux Android en tenant la tablette à la main, elle se révèle beaucoup trop petite dès qu’on y joue avec une manette. Il faut alors brancher la tablette sur une télévision pour vraiment profiter du gameplay à la manette. Une tablette de 10 pouces aurait été, à mon sens, préférable.La Shield Tablet n’a pour le moment aucune concurrence sur le domaine des performances. Elle dispose du Tegra K1, le SoC mobile le plus puissant à l’heure actuelle et seule la Xiaomi Mi Pad tout juste sortie intègre également cette puce. En revanche, contrairement à l’appareil de Nvidia, la tablette de Xiaomi ne sera pas disponible officiellement en dehors de l’Asie et de quelques autres pays comme le Brésil ou la Russie. La Shield Tablet conserve donc l’avantage d’être le seul appareil à être équipé du puissant Tegra K1 et à être disponible dans de nombreux pays occidentaux. Pour les utilisateurs à la recherche des performances pures dans les jeux, la Shield Tablet est donc la tablette à se procurer. Le terminal de Nvidia peut aussi plaire aux personnes désireuses de pouvoir streamer leurs jeux PC vers leur télévision de manière efficace. Pour le moment, très peu de solutions existent pour afficher sur le grand écran du salon le jeu qui tourne sur le PC de la chambre. Il y a le streaming local Steam mais il nécessite deux ordinateurs et se limite au catalogue Steam. La force du GameStream de Nvidia, c’est sa compatibilité avec de nombreux titres et le fait de ne pas avoir besoin d’un deuxième ordinateur. La cerise sur le gâteau, c’est la possibilité de streamer son jeu en dehors de chez soi grâce au réseau Internet. Si vous êtes concernés par les usages que nous avons exposés plus haut, vous trouverez en la Shield Tablet une excellente solution de gaming à mettre à profit dans votre salon, bien plus d’ailleurs que pour des usages nomades ; en mobilité, on privilégiera un usage de la tablette seule, sans sa manette. En revanche, si vous ne vous reconnaissez pas dans ces deux catégories, alors la Shield Tablet de Nvidia n’est pas faite pour vous et nous vous conseillons de vous tourner vers d’autres tablettes vendues à un prix moins élevé, comme la G Pad 8.3 de LG ou la Nexus 7 de Google qui feront parfaitement l’affaire et sont loin d’être dépassées. * GameStream * Tegra K1 * Android KitKat * Fonctions Nvidia (Twitch, enregistrement vidéo) * Ecran trop petit * Autonomie * Prix de l’ensemble (tablette, manette et support) * Ergonomie de la manette

Read more

« Être indépendant, ça veut pas dire faire…

Clubic

Apparu une dizaine de secondes pendant la conférence de Microsoft à l’E3 dernier, White Nighta vu sa cote monter en flèche suite à l’événement californien. Modestement installé chez l’un de ses trois créateurs, dans le centre-ville lyonnais, le studio OSome est dans le rush final du développement de son survival horror très narratif, dont la direction artistique est le premier – mais pas le seul – ambassadeur. Notre entrevue avec le jeu, dont nous vous avons vanté les mérites il y a peu dans une Previews’est conclue par une discussion, détendue mais foisonnante, sur tout ce qui touche de près ou de loin à White Night: le moteur propriétaire, l’utilisation – rare pour une production indépendante – de la motion capture et la vision de la qualité qui en découle, la petite histoire de la présence du jeu à l’E3 (en conférence, mais aussi sur deux bornes au milieu du stand Microsoft) pour finir par la problématique du financement, ô combien importante pour ces anciens développeurs d’Eden Games, entre autres structures emblématiques du jeu vidéo français. Domenico Albani, à gauche, et Mathieu Frémont, à droite Jeuxvideo.fr : Vous disposez de votre propre moteur, créé par vos soins. Combien de temps ça vous a pris pour le créer ? Domenico Albani : (rires) Très longtemps. C’est difficile à mesurer, puisque c’est quelque chose qu’on a commencé à faire en hobby. Mathieu et moi, on se connait depuis trèèèèès longtemps, plus de onze ans, on s’est rencontrés chez Étranges Libellules. Comme beaucoup de programmeurs de jeux, on fait ça par passion, du coup on a commencé à vouloir faire des choses dans notre garage, chez nous le soir. On s’est rendu compte qu’on avait la même passion, donc on a commencé à développer nos propres petits jeux, de bric et de broc, des petites démos pour tester des gameplays etc. On est du genre un petit peu acharné, donc de fil en aiguilles on a continué. C’est pas facile de trouver des gens qui ont le courage, après une journée de boulot, de se remettre à bosser chez eux le soir. On a donc multiplié les petites démos, qui n’ont abouti à rien mais qui nous faisaient bien marrer. Mathieu Frémont : dont une moitié avec Ronan, le troisième membre du studio qui bosse de Paris. Avant de monter la boite, début 2013, on avait déjà fait au moins trois prototypes, sur ce moteur qui était en évolution. Y’avait un peu de tout. DA : ouais on a tapé un peu tous les styles, 2D, 3D, réseau, arcade, un peu de tout… MF : … au moins maintenant on a plein de trucs dans notre besace, pour la suite (rires). DA : on a bougé tous les deux, Mathieu et moi, d’Etranges Libellules à Eden Games, où on a rencontré Ronan, qui avait aussi de son côté réalisé différents prototypes. Comme lui il est plutôt artistique, il bossait sur des technologies existantes. On a commencé à faire des proto ensemble, et on était contents : nous on avait quelqu’un de créatif – on n’est pas graphistes quoi – donc quand tu es programmeur et que tu vois ton boulot illustré, avec de beaux graphismes ou de belles idées visuelles, c’est tout de suite plus cool. Lui, il galérait beaucoup en termes de scripting , donc l’alchimie s’est fait tout de suite. On a fait des trucs sympas à l’époque, et notamment un prototype pour White Night. On le faisait pas dans l’objectif de sortir un projet commercial, c’était vraiment pour se marrer. On avait déjà l’idée du noir et blanc, mais c’est surtout relié à l’actualité de l’époque. A ce moment-là, chez Eden Games, on sortait Alone in the Dark 5, donc grosse production, beaucoup de moyens, beaucoup de personnes, et vers la fin de la production y’a eu un mini-projet de remake du premier Alone qui a été lancé en interne. L’idée c’était vraiment de le reproduire à l’identique, au plan près… MF : y’avait une petite équipe, genre trois quatre personnes dans un bureau, alors que de l’autre côté, sur la fin d’Alone 5, on était 120… DA : c’était vraiment un mini-projet, qui était un petit peu sous-marin, pas trop annoncé à l’extérieur par Atari à l’époque. Le projet avançait bien, et puis malheureusement Alone 5 ne s’est pas vendu, pas bien du tout, Atari a considéré que c’était une licence finie, qu’ils n’en vendraient plus, donc ils ont arrêté ce projet-là. Ronan, qui était dessus, était vraiment dégouté parce que ça marchait bien, il avait vraiment envie de le mener à bien. Au final ça s’adaptait bien avec le prototype qu’on avait déjà fait, donc l’idée nous est restée dans la tête. Il s’est passé pas mal de choses depuis. On a essayé d’autres prototypes, Ronan est allé travailler ailleurs – sur de grosses productions chez Ubisoft et DontNOD notamment, trois ans après qu’on se soit séparés, on s’est tous retrouvés dans une situation favorable. Mathieu et moi, c’était la fermeture d’Eden Games. Pour nous, les indemnités de licenciement et le chômage, ça a été le coup de pouce qu’il fallait. Il aide beaucoup le jeu vidéo en France (le chômage) MF : tu m’étonnes… Jeuxvideo.fr : vous n’êtes pas les premiers à me le dire DA : ça c’est obligatoire, en France c’est comme ça en tout cas. C’est un milieu culturel où tu as un gros temps de préparation de ton produit, et y’a un moment où tu vas le vendre, et avant ça t’es obligé de vivre de quelque chose. La situation a donc fait que nous étions tous les deux au chômage, et Ronan avait terminé de bosser sur Remember Me, c’était pour lui le moment de passer à autre chose. Soit rempiler là-bas, soit démarrer avec nous. C’était à ce moment-là ou jamais, vers début 2013. Depuis, on bosse exclusivement sur notre moteur, qui s’est étoffé au fil des protos. On a eu le temps de faire beaucoup d’essais, et au final on est sur un truc qui nous plait bien. MF : il fonctionne bien sur PC, Mac et Linux, y’a un éditeur intégré parce qu’il y a énormément de scripting et d’édition dans ce jeu-là. Ce qui est cool, c’est que c’est un moteur qui est aussi utilisé pour un autre jeu lyonnais qui s’appelle Space Run. Space Run et White Night, deux genres radicalement différents, mais le même moteur Jeuxvideo.fr : j’allais vous demander si vous le vendiez, prêtiez ou confiez à d’autres développeurs. MF : Pour le moment, on l’a fait essayer à Sylvain (Passot) sur Space Run, qui est sorti il y a peu, c’est la seule personne qui l’a utilisé pour le moment. DA : c’est un premier essai plutôt concluant. Lui a l’air plutôt content du moteur, sur un type de jeu qui est plutôt à l’opposé de celui que l’on fait, et il s’en sort bien quand même (rires). Donc c’est quelque chose que l’on va essayer de renouveler, mais c’est une question d’opportunités. MF : pour nous c’est que du bon, parce que faire tourner un moteur sur deux jeux si différents, c’est une preuve qu’il est efficace. Sur Space run, y’a énormément de fx, d’explosions etc. C’est quelque chose qu’on a travaillé spécialement pour Spacerun, mais maintenant si on veut en ajouter dans White Night, et bien on peut. L’outil est là. DA : de la même façon on a beaucoup travaillé tout ce qui est cinématique, les plans de caméra qui bougent, les moments où tu ne contrôles pas le personnage, c’est venu parce que Sylvain s’est dit tient, « moi j’aimerais que quand mon vaisseau décolle, j’aimerais bien des plans de caméra particuliers ». Tous les outils étaient là, donc c’est vraiment une synergie entre les deux, les besoins particuliers d’un jeu profitent aussi à l’autre. Dernièrement, on s’est un peu arraché les cheveux sur la localisation, il avait besoin de faire une version russe, et coréenne, et donc maintenant ça marche et nous on va pouvoir avoir une localisation poussée, même si on ne sait pas encore toutes les langues que l’on va proposer. Jeuxvideo.fr : Vous avez utilisé de la motion capture pour White Night. C’est quelque chose que vous aviez déjà fait par le passé, sur d’autres productions, ou vous l’avez découvert là ? MF : On en avait pas géré nous directement. Moi j’en ai vu quand j’étais chez Eden, qui avait son propre studio de mocap, donc on a vu faire, j’avais aussi bossé avec les équipes de mocap au niveau technique, mais je n’en avais jamais fait moi-même. C’était donc la première fois qu’on en faisait de bout en bout. Ronan en avait fait un peu sur Remember Me, je crois que c’est à Londres qu’ils allaient, où il avait un peu supervisé le truc. Donc entre l’expérience de Ronan, celle d’un gars qui s’est occupé de la direction d’acteurs et la mienne, plutôt technique, pour s’occuper de l’intégration qui n’est pas spécialement quelque chose d’évident, on y est arrivé sans trop galérer. Le truc c’est que quand tu es Quantic Dream (on a fait la mocap chez eux), et bien t’en fait tous les jours de la mocap. Donc ils recommencent ce qui n’est pas parfait, encore et encore. Nous ils nous l’ont loué pendant trois jours… Jeuxvideo.fr : tu n’as pas le droit à l’erreur du coup… MF : c’est ça, notre budget nous permettait genre quinze minutes de résultat fini et dérushé. Un quart d’heure, tu comptes les secondes quand même… Les animations de marche, on en fait combien ? Une ou deux ? On avait une liste de 120 animations à mocaper, et maintenant on fait avec ce qu’on a. S’il nous manque quelque chose… Jeuxvideo.fr : tu peux faire sans la mocap ? DA : tu peux la faire à la main, mais c’est dommage d’avoir engagé les moyens de la motion capture et d’avoir manqué une anim’. Des fois on peut un peu mixer. Par exemple, si ton personnage attrape quelque chose en hauteur, on a un animateur qui peut ajouter une contrainte pour remonter un peu le bras, en gardant le côté naturel, mais si tu bouges trop, ce n’est plus naturel. On fait avec ce que l’on a de toutes façons. On a mocapé une douzaine d’animations de déplacement par exemple, pour être sûr. Jeuxvideo.fr : vous reproduiriez l’expérience sur un futur projet ? MF : alors c’est bien, en termes de réalisme, le root-motion par exemple. C’est le fait de se déplacer en fonction de ce qu’il y a dans l’anim’. Si ton personnage se pète un peu la gueule en avant, il se déplace un petit peu plus vite etc. DA : tu le sens. Si dans l’anim’ ton personnage trébuche, tu vas sentir qu’il ralentit. Souvent, dans les jeux, tu fixes une vitesse à ton personnage, et quelle que soit l’animation – d’ailleurs souvent tu vois les pieds glisser au sol – il va bouger à la vitesse qui est réglé dans le jeu. Là, on fait vraiment le contraire, à savoir, même s’il se tourne et bien on s’en rend compte : y’a une animation où le personnage tombe, on a l’impression qu’il a bu. Et bien son torse se tourne pendant l’animation, et c’est vraiment à toi de le récupérer au stick. C’est la mocap qui permet ça. MF : après, il faut vraiment avoir, comme on a là, un animateur sous le coude. Une fois que tu as fait ta mocap, le travail commence en fait. Il faut faire énormément de retouches, de petits tweaks d’animations, déplacer la main ou le bras de quelques centimètres, faire des boucles pour qu’il puisse marcher correctement. DA : ton acteur, il va faire un pas, mais y’a rien qui garantit que la marche va s’enchainer correctement, alors que quand tu animes en traditionnel, ça tu peux le gérer facilement. MF : là, on a au moins une cinquantaine de pas enregistrés dans le moteur, là où tu aurais quelques cycles d’une seconde en traditionnel. Chaque pas est un peu différent. Donc c’est vraiment bien, on regrette pas du tout de l’avoir fait sur ce jeu-là. Il est minimaliste, on n’a pas dépensé des tonnes d’argent dans les normal maps , le graphisme est simple, donc y’a des choses sur lesquelles on voulait avoir de la qualité. On va l’avoir sur le son et les animations. Jeuxvideo.fr : justement, avec la qualité professionnelle des doublages, que l’on n’a pas vraiment l’habitude d’entendre dans les productions indépendantes, vous semblez avoir une vision forte de la qualité. C’est quelque chose qui vous tient à cœur ? Pas de système D, en fait… DA : Pour nous être indé, ça veut pas forcément dire faire du jeu au rabais. Ce qui est sûr, c’est qu’on n’a pas un budget illimité. Ça veut dire savoir travailler avec un budget établi, carré quoi, par exemple ne pas refaire de mocap si on s’est planté. On a un système de production où l’on essaie de tirer les leçons des gros studios dans lesquels on a pu aller, et se dire que l’on ne va pas refaire les mêmes erreurs. On va essayer d’avoir quelque chose de carré, qui tient et dans les délais, et dans le budget, et dans le nombre de personnes qu’il nous faut pour produire notre jeu. Pour la qualité, il faut trouver le bon degré. Faut pas aller dans le trop de qualité : c’est, je sais pas, Assassin’s Creed, on arrivera pas à ce genre de qualité de rendu, par contre faut savoir où mettre ses billes. Si tu les mets pas dans les textures, il faut pas non plus flouer le joueur, il faut qu’il se sente bien dans le jeu, qu’il sente le jeu vivre, donc ça va être plutôt l’animation ou le son. C’est ce qui va faire notre originalité, mais en aucun cas cela signifie un projet au rabais. On l’appelle pas triple-A, mais on veut une qualité double-A, on va dire. Y’a quand même un parti pris graphique, mais aussi de gameplay puisqu’il n’est pas très lissé, il n’y a pas d’action. On arrive à une époque où un jeu indépendant ne correspond plus à un titre que l’on achète un dollar sur l’App Store. MF : Il y a une différence entre « je sors de l’école, je veux faire mon jeu, je me mets dans le garage de papa » Jeuxvideo.fr : … et je fais toutes les erreurs du monde… MF : … mais je m’en fous, j’ai le temps. Je fais mon jeu le jour et la nuit je bois des bières, ou l’inverse (rires). Nous on n’est plus trop là-dedans. On l’a fait, nos petits jeux dans notre coin, on a pas mal bossé dans des studios, on voulait aussi faire un truc… DA : pour en vivre aussi. Être indépendant, mais professionnel, c’est possible (et nécessaire) MF : oui, tu arrives à un âge où tu as une vie de famille, tu ne veux pas faire de trucs trop à l’arrache. Oui, c’est frustrant d’être dans un studio AAA, où les mecs dépensent énormément d’argent. Alone in the Dark 5 a coûté 20 millions, sans le marketing, et à peu près autant de marketing en plus… quand tu es dedans, tu vois qu’il y a beaucoup de gaspillage. Ça devient un défi personnel, se dire que tu peux y arriver, de faire de la mocap chez Quantic, de bosser avec un vrai sound designer , avoir vingt minutes de musique composée pour le jeu, on a une chanteuse… D’ailleurs, on l’avait pas vraiment prévue au départ, on a vu que la fille qui avait fait la mocap, elle était aussi chanteuse. DA : c’est tout à la sauce indé. C’est l’occasion qui fait le larron. Trouver des plans pas chers, tu peux pas taper dans le best of the best, mais ça n’empêche pas de faire quelque chose de qualitatif. Jeuxvideo.fr : c’est peut-être ça l’avantage d’être un développeur chevronné, d’être passé par de gros studios comme Étranges ou Eden. Tu vois le gaspillage, ce qui ne tourne pas rond, et quand tu pars tu as un bagage, mais aussi des contacts. Vous évitez du coup le syndrome de l’étudiant qui veut sortir son jeu, met dix ans à le faire, et soit il est doué et il sort Fez, soit t’en entends plus jamais parler. C’est ça que vous avez gardé de cette époque, Eden et Etranges Libellules ? DA : j’ai commencé sur les Astérix , y’a eu Arthur et les Minimoys , le début de Spyro etc. Étranges, moi c’était mes débuts, donc c’était génial (rires). Les deux studios que j’ai vu, c’est quand même des problèmes de management qui les ont fait tomber, mais au niveau équipe, y’avait vraiment beaucoup de talent, et donc j’ai énormément appris. Vu de l’intérieur, ça tournait vraiment très très bien. Y’avait beaucoup d’intelligence et de talent. Du fait de la mutation du marché, avec pleins de petits jeux pas chers ou gratuits et des gros jeux AAA, Étranges a eu du mal à trouver sa place. Y’avait plus de place pour les moyennes productions à licence. Sinon c’était une boite intelligente et performante.Je pense d’ailleurs qu’on a beaucoup apporté de Étranges à Eden. Jeuxvideo.fr : comme Eden a transmis après à Ivory Tower j’imagine… DA : complètement, y’a un talent qui a été transmis. Jeuxvideo.fr : c’est la chute d’Eden qui vous a poussé vers l’indé, où vous avez cherché des postes chez les gros studios qu’il reste à Lyon, comme Ivory ou Arkane ? DA : les choix sont pas énormes, et si tu as envie d’une vie à Lyon effectivement, si tu veux travailler dans une entreprise avec tes horaires de bureau, il reste ces choix-là. C’est un choix de vie. MF : nous on voulait monter le studio depuis un moment. Y’a un moment où tu ne te fais plus d’illusion, tu sais que tu n’arriveras pas à sortir un jeu si tu ne t’y consacres pas complètement. Surtout quand tu as des envies de qualité. Les planètes étaient alignées : Ronan en fin de prod, nous on se fait virer. C’est parfait. On n’a même pas postulé ailleurs. Je pense que ça aurait été possible, venant d’Eden, mais non. DA : c’est aussi un choix à faire, parce que la vie n’est pas la même, bosser en indépendant ou dans une grosse boite. Nous, avec notre système de fonctionnement, tu n’as pas tes weekends assurés par exemple. Par contre tu es flexible, c’est tout le problème de l’indépendant au sens large. Tu as le plaisir de travailler pour toi, cette liberté d’horaire etc, par contre y’a personne qui te verse de salaire. Si tu n’arrives pas à faire ton jeu dans les temps, c’est ton pécule personnel que tu vois partir, c’est une autre donne. Une certaine forme de pression. Comme tout un chacun, on a des jours avec et des jours sans, c’est un peu plus éprouvant que la vie en studio. On l’a beaucoup apprécié, avoir beaucoup de moyens et des horaires standards, mais y’a rien à regretter, depuis un an et demi ça se passe bien. On a eu la chance de gagner le premier prix de la Game Connection, de rentrer en contact avec éditeurs et constructeurs, à la GDC, très bons retours également, on a été primé, à l’E3 on est accueillis par Microsoft. On a eu que des bons retours sur le jeu, mais aussi amassé beaucoup d’expérience. Comment monter une boite, les démarches etc. Bon y’a des trucs moins marrants, tu peux parler à Mathieu de la compta par exemple (rires), mais malheureusement ça fait partie du taf aussi. Une pichenette de Microsoft, un énorme boost pour OSome Jeuxvideo.fr : OSome studio s’est retrouvé à l’E3, en conférence puis sur le stand de Microsoft. Comment ça s’est passé ? MF : En fait on avait déjà rencontré Microsoft, à la Game Connection Europe en décembre. On avait gagné des prix là-bas, et l’une des possibilités avec ces prix c’était de rencontrer Microsoft. On s’est ensuite inscrit à ID@Xbox, leur programme de développement indie, donc on a reçu le kit de développement Xbox One, on avait commencé à travailler avec eux. Quelques semaines avant l’E3, ils nous ont contacté pour nous dire qu’ils avaient un stand ID@Xbox à l’E3, qu’ils cherchaient des projets indépendants, savoir si ça nous intéressait. Jeuxvideo.fr : Vous n’avez passé aucun accord en contrepartie ? L’assurance d’une sortie sur Xbox One ou même un accord d’exclusivité ? MF : Pas du tout. ID@Xbox n’a en fait rien à voir avec notre présence à l’E3, bon c’est indirectement lié mais quand tu t’inscris au programme, le seul truc que tu t’engages à faire c’est de sortir ton jeu sur Xbox un jour (rire). C’est tout ce que tu t’engages à faire, et alors ils te fournissent le kit. Il n’y a pas d’exclu, y’a pas de financement etc. C’est le truc de base. Après ils nous ont dit « venez, présentez votre jeu », mais ce n’était pas relié à un contrat d’exclusivité. Jeuxvideo.fr : Pour eux, c’est un peu une manière de dire à la concurrence : celui-ci n’y comptez-pas, c’est chasse gardée ? DA : Les autres ne savent pas qu’aucun contrat nous lie à Microsoft, mais pour Microsoft c’est surtout l’assurance que notre jeu ne se retrouve pas sur le stand de Sony. C’est l’effet d’annonce, qui dit que ces jeux-là sont chez Microsoft. Jeuxvideo.fr : Et le fait d’être en conférence, ça vous a fait quoi ? C’est quand même un gros truc, une conférence Microsoft à l’E3… On a du vous prévenir un peu avant… MF : On savait pas exactement si on serait présent. Ils nous avaient demandé deux minutes de vidéo du jeu, un trailer HD etc. On ne savait pas si on allait être dans leur vidéo. Ils nous ont dit « envoyez-nous tout ça et peut-être que vous y serez ». Quand ils ont commencé à nous demander des formats avec des résolutions complètement folles, du son 7.1… (rires) On s’est demandé pourquoi (rires). Y’avait pas mal de projets, et en fait y’en avait pas tant que ça qui étaient présents dans le trailer . Y’avait à peu près la moitié des projets qui n’étaient pas dans la vidéo. Donc bon on s’y attendait pas, en fait.Je suis jamais allé à l’E3 déjà, donc on est arrivé au Media Briefing , c’était immense quoi. Y’avait au moins 10 000 personnes… Donc le fait de découvrir, pendant la vidéo ID@Xbox… Je crois qu’au début y’a quelques images de White Night, puis un petit plan de quelques secondes avec écrit White Night , puis à la fin sur une espèce de flash noir et blanc… On était comme des fous. T’as quand même ton jeu qui passe à l’E3, le centre de toutes les attentions, sur un écran de 80 mètres de large. Jeuxvideo.fr : Surtout qu’ils vous ont contactés assez tard visiblement. Quelques semaines avant, t’imagines même pas ni être à l’E3, ni être en conférence… MF : complètement. On est un studio de trois personnes, on fait notre petit jeu. Déjà c’est cool ID@Xbox, ils nous envoient un kit, mais là c’est autre chose. On a accepté direct, on réfléchit pas. Pourtant on l’avait pas prévu… DA : … en plus on n’avait même pas prévu d’être sur le salon par ailleurs. C’est vraiment le truc qui nous y a amené. C’était vraiment inattendu. MF : autant la GDC on avait prévu puisqu’on cherchait des contacts professionnels, l’E3 on s’était dit « aucun intérêt ». Quand t’es indépendant, soit tu vas sur le Indie Megabooth , mais les places se bloquent très très vite, quasiment un an avant, soit tu achètes ton petit stand, y’en a qui le font, mais j’imagine même pas le prix que tu dois payer pour ça, sachant qu’au niveau du passage c’est pas extra. Pour cinq ou dix mille euros, c’est assez fou. Là on pouvait venir, on pouvait présenter notre jeu, et dans des conditions qui étaient au final exceptionnelles. On était en plus bien placés dans les jeux indies. Si t’es tout seul personne ne vient te voir, si t’es parmi tous les autres jeux indies y’a tous les journalistes, qui se laissent quelques heures pour couvrir tout un stand, donc c’était vraiment extra. Jeuxvideo.fr : Vous avez senti une différence après ? MF : Déjà sur le trailer , nous on avait peut-être 10 ou 20 000 vues. Si tu le mets sur le channel Xbox, sur IGN, Gamespot, le moindre petit truc chez eux c’est mininum 20 000 vues, ça aide beaucoup pour la notoriété globale du jeu. DA : c’est un gros boost… MF : Pendant l’E3 ça a pris un pic, globalement tout est multiplié par deux minimum. Jeuxvideo.fr : Vous avez un éditeur ? MF : pas pour le moment, mais on en cherche un. Jeuxvideo.fr : Pour s’occuper de la communication au moment de la sortie ? C’est pas tant une question de moyens que de savoir-faire en somme… MF : exactement. Du coup y’a quand même une question d’argent, pour investir des moyens dans la promotion, ce qui n’est pas obligatoire. Jusqu’à maintenant, on s’en est bien tiré de ce côté-là (rires). En ayant l’appui de Microsoft, ça devrait nous faciliter les choses, c’est sûr. Déjà ça nous permettrait de nous concentrer sur notre métier, celui de développeur de jeu. On a pas mal d’expérience, mais en tant que développeur, pas en tant que marketeux. On est en contact avec plusieurs éditeurs, et on va essayer de conclure ça rapidement parce que le jeu doit sortir en septembre. Jeuxvideo.fr : J’imagine que vous vous êtes fixé un objectif de ventes, vous envisagez toucher une certaine audience. Est-ce que toute cette promotion vous a poussé à revoir vos objectifs à la hausse ? MF : Non. On n’a pas revu nos objectifs de vente à la hausse, ça nous a simplement conforté sur le fait qu’il y avait vraiment une audience, et qu’une petite pichenette de Microsoft… DA : … c’est un gros gros coup de boost pour nous (rires). MF : on se rend compte que les efforts que l’on peut faire de notre côté pour faire de la com’, des trailers… il suffit qu’ils nous mettent cinq secondes dans leur conférence et y’a un tas de monde qui nous contactent derrière pour avoir des infos. Jeuxvideo.fr : et vous envisagez le succès ? Le jeu sort en septembre, vous en vendez deux millions. Vous y pensez ? C’est quoi la suite ? DA : il faut se faire plaisir et l’envisager… MF : c’est pas nos prévisions de vente, hein (rires) DA : je pense qu’il faut plus réfléchir au cas inverse… Jeuxvideo.fr : c’était ma question suivante évidemment (rires) DA : le succès tu te dis « ok, je vais l’envisager deux secondes : ce sera génial ». Je n’aurais pas de problème à ce moment-là. Aujourd’hui c’est plutôt : comment je fais pour que ce soit un succès, ou au moins un demi-succès. Qu’on assure la prod’, qu’on livre un jeu de qualité, que les gens apprécient, qu’on apprécie, il faut que les deux correspondent, ce qui est pas évident. On aura bien le temps de se demander ce qu’on fait après. Est-ce que c’est une Porsche ou une Ferrari ? (rires) MF : si ça marche bien, on a évidemment plein d’idées. Du truc hyper simple, jusqu’au AAA, donc si on a plein d’argent on plein d’idées pour le dépenser (rires). Jeuxvideo.fr : si je pose la question, c’est qu’il y a pas mal développeurs indépendants, comme Jonathan Blow, Notch ou encore les hollandais de Vlambeer, qui ont vécu le succès comme un drame. Bon maintenant Blow a tout réinvesti dans The Witness et s’est acheté une voiture de collection et Notch voyage en jet privé et reverse des primes démentielles à ses employés, mais le début a été difficile à vivre. On entend beaucoup moins parler des échecs, évidemment, mais le succès peut parfois être un problème aussi, d’où la nécessité de savoir où on en est. DA : on a aussi la volonté de pas nécessairement développer un jeu à la fois. Si jamais on avait des moyens, on aurait envie de travailler avec d’autres équipes. Une boite, c’est pas nécessairement dix ou vingt personnes qui vont travailler de front, tous ensemble, toujours les mêmes, d’un projet à l’autre à faire des suites. On aimerait bien diversifier les jeux sur lesquels on travaille, et diversifier les gens avec lesquels on travaille. En cas de succès, on pourrait imaginer avoir un super White Night 2, mais aussi faire confiance à une autre équipe. Ou apporter notre expérience en termes de production sur d’autres titres. On sait bien qu’il y a d’autres personnes qui ont des idées, et beaucoup de talent mais pas d’argent. MF : des équipes ou mêmes des individualités. L’idée c’est vraiment d’avoir un pool de personnes, même si c’est déjà un peu ce qu’on fait puisqu’on travaille beaucoup avec des indépendants. On se rend compte qu’il y a une certaine richesse, de travailler un petit peu avec les uns, un petit peu avec les autres… DA : dans le milieu indé les gens commencent à bien se connaitre, surtout à Lyon, y’a des gens qui aiment se rencontrer régulièrement, du coup les gens se connaissent personnellement, ils sont prêts à se faire confiance. On suit les projets des uns et des autres, y’a un vivier de gens qui ont envie de se rassembler, et pas rester chacun de son côté, comme c’était l’esprit y’a une dizaine d’années. Les boites étaient assez individualistes, voulaient leur succès personnel et fonctionnaient en vase clos. Là il est question de communauté et d’entraide. MF : y’a une envie en tout cas. Le jeu indé, c’est quand même un truc assez individuel au début, IN-DE-PEN-DANT quoi, avec « je veux faire mon truc dans mon coin », puis tu te rends compte qu’il y a pleins d’autres gens, que ça serait pas mal de bosser ensemble… DA : … ne serait-ce qu’échanger les contacts, les connaissances… MF : ou juste discuter, se mettre au courant que d’autres gens font la même chose que toi au même endroit. Jeuxvideo.fr : vous participez à la scène indé française aussi ? MF : On est moins connecté à d’autres studios indés hors de Lyon. En France on connait un peu moins. DA : c’est vraiment le côté local qui nous intéressait, le côté humain, connaitre les gens, pouvoir les rencontrer facilement… Jeuxvideo.fr : alors que vous bossez à distance avec Ronan (ndr : Coiffec, le troisième membre d’OSome basé à Paris), c’est un peu paradoxal… DA : oui c’est vrai, mais la distance c’est toujours problématique. Malgré les moyens super modernes dont on dispose, c’est quand même plus facile en local, c’est évident. MF : après si on me parle de « scène internationale indie », y’a trop de petites entités, moi je m’y perds. En deux minutes, tu trouves une centaine de studios indés, on en a rencontré énormément à la GDC, et bien j’ai eu du mal à maintenir une communication. Sur place, on discute, et parfois de pleins de sujets, la com’, la prod’, le financement, sur le coup c’est intéressant, mais après c’est difficile de garder le lien. DA : c’est comme quand tu es sur facebook avec tes 200 amis, t’as pas 200 personnes avec qui tu peux communiquer au quotidien. Dans le travail, c’est pareil. MF : moi, j’y arrive pas. Ça me prend trop de temps. Pour construire quelque chose, faut être en contact régulièrement. Pour un petit studio, discuter avec des gens, échanger, ça prend un temps phénoménal… DA : déjà communiquer entre nous, à trois, ça prend du temps. MF : c’est quand même quelque chose que j’aimerais faire, quand on aura sorti le jeu et que la pression redescendra. J’ai l’impression qu’on passe à côté d’opportunités parfois, mais on a physiquement pas le temps de gérer tout en même temps. Pourquoi on est allé à l’E3 ? Parce que la Game Connection, et Microsoft qui passe en coup de vent à la GDC, ce qui fait qu’après ils ont pensé à nous, ça c’est une opportunité qu’on aurait pu manquer. Jeuxvideo.fr : Donc c’est important d’entretenir le réseau, même si plus tu l’entretiens, moins tu bosses sur ton jeu… MF : c’est une balance, et en ce moment par exemple, on est à fond sur le jeu. On n’ira pas à la Gamescom par exemple, à moins que l’on trouve un éditeur d’ici là qui s’occupe de ça pour nous. Jeuxvideo.fr : Vous avez obtenu un financement du CNC. Quel montant ? MF : c’est un chiffre qui est public : on a eu un financement de 100 000 €. Jeuxvideo.fr : Eden Games vient de toucher 200 000 €. C’est un studio qui s’est fermé derrière vous, et il est remonté par des gens avec lesquels vous avez travaillé, comme David Nadal. Ils auraient, d’après certaines sources non officielles, levé plus d’1,5 millions d’euros. Vous en pensez quoi ? DA : ce sont des chiffres que tu m’apprends là, le CNC et les fonds. Les fonds, je sais pas trop comment ça se passe. Par contre pour le CNC, on connait vu qu’on a fait le dossier, et on sait surtout ce que nous, on a fait de cet argent. Je sais pas si ta question concerne la moralité de tout ça… Jeuxvideo.fr : on a un peu l’impression que les 200 000 € du CNC sont lâchés sur le nom de la boite uniquement… DA : la chute d’Eden, elle est imputable à pleins de choses, moi je ne mettrais pas David Nadal en tête de liste. Chacun son avis, mais c’est la concordance de pleins de choses en fait. Ça a été compliqué et très long, la chute d’Eden mais bon…Je pense qu’en amont, les gens qui vont investir dedans, je pense qu’ils ne font pas ça à l’aveugle. Ils doivent être convaincus que le million sera bien investi. Après si l’Etat décide derrière de mettre 200 000, c’est que le dossier doit justifier de ça. D’autant plus si le projet est déjà bien financé, il y a de bonnes chances pour que ça sorte. Jeuxvideo.fr : le CNC est un sujet épineux, qui agace pas mal de gens, surtout en ce moment. Certains ont parfois l’impression que les gens qui reçoivent les subventions sont aussi ceux qui les donnent… DA : je dirais plutôt l’inverse. Les gens qui sont au comité, eux soumettent leurs propres projets. C’est pas que ceux qui reçoivent décident, mais ceux qui décident souvent reçoivent. En même temps, est-ce qu’il y a des domaines où ce n’est pas le cas ? Dès qu’il est question d’experts, ce sont nécessairement des gens qui travaillent dans le domaine. Y’a le même genre de soucis dans le médical, la pharmaceutique etc.Pour l’expérience que j’en ai, on touche une grosse subvention par rapport à notre budget, mais se sont des dépenses qui sont à justifier, et qui doivent être faites à 100% sur le territoire français. Dans notre cas, c’est pleins d’indés que l’on paie, parisien dans la grande majorité. Ça, c’est vérifié par le CNC. Y’a pas de fuite d’argent de ces subventions. De savoir à qui elles sont attribuées, c’est un tout autre sujet. Jeuxvideo.fr : ce que certains reprochent au système, c’est de favoriser les réseaux. MF : le CNC il a un certain montant, par an, à donner au jeu vidéo. Effectivement, ce que je donne à David Nadal, je ne le donne pas à quelqu’un d’autre, c’est un concours après tout. Y’aura forcément des insatisfaits. Après, le CNC, son but c’est de promouvoir des licences, d’aider à les créer, parce que c’est de la renommée. Pour que ces licences aient une valeur, il faut que les jeux sortent. Dans leur baromètre, c’est « David Nadal va faire un jeu, il a déjà récolté des fonds, c’est bien parti. Si je lui donne l’argent qu’il demande, il y a de bonnes chances que le projet marche. Cette licence va rayonner à l’international, donc j’investis 200 000 pour un projet qui va couter beaucoup plus et rayonner à l’international ». Qui a le plus besoin de l’argent du CNC : les petits ou les gros ? Jeuxvideo.fr : c’est donc ça l’avantage des gros par rapport aux petits ? MF : mais il y a l’autre côté de la balance. S’il a déjà plus d’1,5 millions, qu’est-ce qu’il en a à faire d’avoir 200 000 de plus ? De toute façon son jeu va sortir. C’est là où ça peut être un peu limite. Pareil pour DontNOD : je ne sais pas si c’est pour Remember Me ou le projet actuel, mais ils font une demande de subvention sur un projet à, mettons, 10 millions, de 200 000 €. C’est un peu une blague. DA : A l’opposé, pour un projet comme le nôtre, 100 000 € c’est impossible de sortir le projet sans. MF : c’est entre un tiers et la moitié du budget. De toutes façons le financement, ça doit être maximum 50% du financement du projet, pour 250 000 € maximum quelque chose comme ça. Nous on voulait 100 000 sur un budget de 250 000 €. Ils te donnent une partie d’abord, et pour avoir la fin il faut justifier tes dépenses, et que tu as sorti ton projet. Jeuxvideo.fr : et donc le reste de l’argent, il vient de vos fonds propres ? MF : oui. Ce n’est pas tout d’avoir une subvention de 100 000 €, mais il faut aligner les mêmes 100 000 € en face. Même plus. Y’a une partie de prêt, « love money » quoi, la famille, les amis… et puis tout l’argent du chômage, des primes de licenciement… DA : on met de soi dans ce projet, c’est sûr. Merci à Domenico Albani et Thierry Frémont pour leur accueil et leur disponibilité.

Read more

« Savoir prendre » les joueurs de cité et les…

Le Nouvel Observateur

Nous donnons ici la parole à un fin connaisseur du football français, un « dénicheur de talents » comme le disait le journaliste, Marc Beaugé, dans un portrait paru dans « France Football », le 29 septembre 2006. En effet, Alain Pascalou a contribué à former, au club du Mans, nombre de joueurs qui ont « éclos » au plus haut niveau : Drogba, Gervinho, Romaric, Cousin, Bangouri, Corchia, etc. Né en 1952, « ailier droit » et ancien international junior (avec Lacombe, Giresse, Courbis), joueur de bon niveau (L2), il a ensuite poursuivi une double carrière d’enseignant d’éducation physique et sportive et d’entraîneur, pendant dix-sept ans (1978-1995) de l’équipe de Saint-Leu qui, sous son impulsion, passe de la promotion d’honneur au National. Ayant grandi dans un village sarthois, il découvre la banlieue parisienne à travers son premier poste dans un collège au milieu des années 1970 : J’ai rencontré des gamins en grande difficulté. Enseigner là-bas, c’était faire oeuvre éducative. Je ne connaissais pas la violence, les conflits, j’ai appris sur le tas. Il fallait avoir un contact clair, net, précis avec les gamins. Je jouais sur la dérision, sur le ‘chambrage’, plus que sur l’autorité physique. Cette expérience dans l’Education nationale me sert tous les jours dans le foot. »Avec Philippe Guimard, nous l’avons longuement interviewé, tout un après-midi, en février 2014, chez lui. Le club professionnel du Mans où il a fait toute sa carrière d’éducateur (1995-2013) a « fait faillite ». Nous nous sommes dit que ce serait une belle idée de lui donner la parole. Comme l’écrit n’est pas sa spécialité (« Moi, je suis plutôt dans l’oral », nous confie-t-il au téléphone), il nous a accordé cette longue interview par mail. Il porte un regard vraiment original – et pensons nous politiquement important – sur les jeunes de cité footballeurs, longtemps décriés dans les médias pour leur comportement, avant ce qu’on pourrait appeler la rédemption des Bleus lors du Mondial 2014. Peut-on reconnaître dans son style de jeu aujourd’hui un jeune de cité ? – On ne peut pas repérer la provenance du joueur aussi simplement que cela. Si l’on veut se pencher sur les caractéristiques le plus souvent constatées chez un jeune de cité, on note un jeu plein d’énergie, de dynamisme, de générosité et surtout une « soif de jouer ». Il y a plus souvent chez eux, c’est vrai, de la gaieté dans leur jeu, de la folie parfois, ainsi que de l’irrationnel. J’ai aussi constaté que ces gamins étaient souvent pleins d’audace, de culot. Ils osent, ils tentent, ils se rebellent aussi quand le sort d’un match tourne en leur défaveur. Et c’est vrai que leurs gestes de mauvaise humeur, leurs remarques « déplacées », comme on dit, peuvent souvent agacer ou même déstabiliser l’entraîneur de jeunes qui passe son temps à faire appel sans cesse au sens collectif, à l’esprit de discipline et à la rigueur nécessaire à toute expression du jeu d’équipe. En même temps, quand on a comme moi côtoyé au quotidien ces gamins pendant des années, on s’aperçoit qu’ils sont souvent malins, espiègles et aussi « débrouillards ». C’est d’ailleurs, on l’oublie trop souvent, ce qui fait de ces joueurs des gars qui entreprennent sur le terrain. Ce n’est pas le genre de joueurs désespérants qui restent les bras croisés sur le terrain, en attendant que ça se passe ! Non, c’est tout le contraire. Une anecdote vécue au Mans, révélatrice de cette débrouillardise : on organise une « journée détection »(1) de jeunes de 16 à 18 ans sur notre terrain qui se situe en dehors de la ville du Mans et, à cette époque, inaccessible par les transports en commun. Or à notre grande surprise, à 14h, on voit arriver un bus de la ville sur nos installations avec une vingtaine de jeunes à l’intérieur. Ils venaient tous de la banlieue parisienne et avaient eu l’idée de négocier un tarif de groupe depuis la gare pour arriver en heure et en temps à cette détection. Voilà une preuve – il y en aurait d’autres… – que ces gamins sont plus souvent amenés à se débrouiller, à prendre des initiatives. Par rapport à nos jeunes Sarthois de la campagne ou des lotissements pavillonnaires, par exemple, ils possèdent une maturité bien plus précoce.En termes de jeu, ils jouent parfois comme ils sont dans leur quotidien. Ils tentent et aiment à tenter des dribbles, des « un contre un », des duels, ils aiment provoquer balle au pied l’adversaire et cela amène fraîcheur, spontanéité, percussion. Dans le foot moderne basé sur le pressing permanent, ce sont des qualités essentielles. Autre chose: ils aiment le contact physique, le recherchent même, et ont souvent la « rage de vaincre ». Ils ont tant besoin de prouver : à la fois prouver aux autres ce qu’ils valent sur un terrain mais aussi se prouver à eux-mêmes. Ce qui me plait aussi chez ces enfants, c’est leur joie de vivre et cela rejaillit bien naturellement sur leur jeu. Ce qui m’a toujours surpris chez un jeune qui va vers le haut niveau, c’est la grande confiance qu’il peut avoir en lui ; il n’a pas peur du jeu, de l’enjeu, de l’affrontement avec l’adversaire : au contraire ce dernier est son sparring-partner, il a envie de se « frotter à lui ». Quand vous avez rencontré, comme moi, des jeunes comme Drogba, Corchia, Issa, Gervinho, vous ressentez assez vite que la réussite sera pour eux au rendez-vous. Ils avaient tous un grande force de caractère. Mais attention avoir du caractère est une qualité, avoir sale caractère est un défaut ! Eh bien, lors de mon parcours d’enseignant et de coach, les gamins des cités rencontrés ont souvent fait preuve de caractère, ce qui constitue un sacré atout pour le haut niveau. Didier Drogba en 2006 (Jean-François Monier / AFP) On prend souvent comme exemple Zidane qui devrait tout à son jeu dans la cour de la Castellane (grand quartier HLM de Marseille)… – On oublie ici que la responsabilité des éducateurs dans un Centre de Formation est déterminante dans la construction du gamin, sur le plan purement technique mais aussi sur un plan social et humain. A cet âge si délicat de l’adolescence, les éducateurs doivent avoir de la compétence sur le domaine, ô combien compliqué, de la pédagogie, de l’accompagnement et de la psychologie. En ce domaine le travail effectué depuis des années par la DTN (Direction technique Nationale) sur les diplômes de formateur de la FFF est remarquable. Dans ma formation, être professeur d’EPS m’a beaucoup apporté (2) mais combien de richesses apprises, combien de rencontres fabuleuses ai-je pu faire dans ces Stages de Formation DTN. Je suis fier d’appartenir à ces deux mondes de l’Education Nationale et du Football et souvent je peste d’entendre des critiques sur l’éducation de nos enfants dans nos Centres de Formation. Vu mon « grand âge » (61 ans), j’ai côtoyé plein de gens remarquables, passionnés et responsables vis-à-vis des parents qui nous confient l’éducation de leurs enfants. De la même manière, le travail de fond des éducateurs dans les quartiers n’est pas assez mis en valeur aujourd’hui. Pour avoir « baroudé » comme recruteur dans des endroits dits « difficiles », eh bien, je me rends compte de l’énorme respect qui leur est dû.Pour en revenir à Zidane, il est évident que l’école de la rue a du être essentielle dans sa carrière. Car nous, éducateurs, ne sommes que des guides, des accompagnants, au contact d’un gamin qui possède des origines, une culture, des valeurs enseignées par les parents, les instits, les copains, etc. Donc soyons humbles, reconnaissons que le gamin de Castellane qui joue toute la journée au foot avec des copains a plus de chances d’être technique, athlète, « guerrier » que celui qui joue à la Playstation. Je me souviens encore très bien des parties de foot aux récréations du Lycée de Château du Loir où j’étais interne. S’il y avait le moindre temps libre, on tapait la balle. C’est aussi dans ces jeux réduits où tu touches très souvent la balle, dans des parties informelles où tu rencontres des plus âgés, que se dégagent déjà des leaders qui aiment organiser, prendre le groupe en main. L’école de la rue est naturellement « socialisatrice » et constitue une précieuse base de progression. Aujourd’hui allez faire un tour dans un collège ou dans un lycée. Vous ne verrez plus une partie de foot car on a trop peur de casser les carreaux ! Mais, avec mes copains, j’ai cassé les carreaux de l’église de mon village. Le maire venait voir nos parents, on se faisait sermonner mais deux jours après, on était reparti à jouer. Alors, oui, Zidane a sûrement tiré grand profit de cette aventure du jeu de cour où on ose des dribbles, où on se « charrie », où on se nomme Platini, Rocheteau ou Bereta – les idoles de notre temps – où on s’étalonne par rapport à un copain, un plus costaud, un plus grand. Un exemple : prenez un tirage des équipes par le plus vieux ou le plus fort de la bande. Vous avez deux ou trois ans de moins que tout le monde et vous êtes choisi d’emblée par le « chef » ! C’est déjà, dans ta vie de gamin, un premier repère fort de ta valeur. La remarquable technique balle au pied de Zidane doit certainement beaucoup à ce jeu dans des espaces réduits où le duel est immédiat et proche et tu dois être malin, vif, où tu dois vite décider de l’initiative de jeu. Récemment, dans « L’Equipe », Pogba a lui-même dit être un « joueur de City Stade » ?  - Les politiques des villes ont facilité la construction de ces terrains de jeu et surtout le plus souvent dans les quartiers. C’est un outil fabuleux qui a encore plus d’avantages et de qualités que les terrains de rue, pour au moins deux raisons. La première est qu’il y a des buts, on y pratique des jeux réduits avec la présence de gardien et là on est dans la vérité du jeu ; on peut aisément transférer du jeu du city stade au foot à 11. La deuxième raison, c’est la possibilité de jouer avec les bandes : le jeu s’enchaîne à l’infini, on doit réagir encore plus vite, on doit se montrer malin pour passer l’adversaire avec l’aide ou non de la bande qui peut servir d’équipier. Et tout cela se passe dans un jeu dynamique où « l’endormi » n’a pas sa place et ou il fait perdre immédiatement son équipe. Les « forts »n’aiment pas perdre et, de suite, ils vont « secouer » celui qui est en déficit de concentration !Ce type de jeu en City Stade favorise un jeu de vivacité, de duels, de buts immédiats qui sanctionnent la faute ou l’erreur. Et de plus une qualité déterminante dans un jeu Sport Collectif c’est la notion de Continuité du Jeu. Actions offensives et actions défensives s’enchainent à grande vitesse. Deux choses me viennent à l’esprit à propos de Pogba qui me font penser qu’il a énormément appris de ces situations de City Stade. Contre le Nigéria, il est en difficulté physique en 2e mi-temps mais il revient dans le match, remet le « bleu de chauffe », retente des chevauchées et marque à la 79e minute. Cette faculté de surpassement c’est le propre des grands ! La deuxième chose c’est à la fin du match contre l’Allemagne on le voit « ronchon », pénible, tristement frustré de cette défaite amère. Il n’accepte pas, fulmine, peste mais en lisant sur son visage, je me dis : Tiens, ce mec, il a subi une défaite, un revers mais il se dit ‘je vous retrouverai dans deux ans au Championnat d’Europe’ ». Pour moi comme dans ces jeux de gamins dans le City stade, le champion aime vraiment la Gagne mais encore plus que tout le Champion hait viscéralement la défaite ; et sur ce que j’ai vu à la télé Pogba a le caractère d’un champion en puissance. Mais alors quand les joueurs de cité arrivent en Centre de Formation, qu’est ce qu’il faut le plus travailler ? – S’ils arrivent dans le centre, c’est tout d’abord à la suite d’une observation d’un recruteur expérimenté. L’oeil « aiguisé » de cette personne a forcément détecté, chez ce gamin, ce qu’on appelle dans notre jargon une « qualité force ». Au Mans, on visait tout jeune qui nous procurait une émotion, un coup de coeur, dans quelque domaine que ce soit : technique, lecture et intelligence de jeu, qualités mentales ou athlétiques. Un joueur aux qualités moyennes atteint rarement le haut niveau. Seul celui qui possède un énorme « point fort » a des chances de réussir. Donc premier message : travailler sur le point port du gamin, cela lui procure confiance, sécurité, bref un appui capital pour sa future construction. Ensuite, la qualité de l’accueil en Centre est fondamentale. La structure technique, humaine, accompagnante, doit connaitre son profil personnel ; technique, scolaire et familial. De la qualité de cette première rencontre, peut dépendre la mise en confiance de ce jeune. Fixer un cadre précis tant des règles de vie que du projet sportif et scolaire. Sur le plan scolaire, il est structurant de « coller » à la véritable motivation de ce jeune. Au Mans, nous avons eu des mentions au bac général, des parcours en bac professionnel ou parfois des CAP Vente par exemple. Or ces gamins arrivent chez nous parfois totalement déstructurés sur le plan scolaire. Or ils vont avoir, dans notre centre, un suivi scolaire et personnel intéressant avec un bilan régulier avec la structure scolaire partenaire.Chez nous nous avions fait le choix de l’échange : nos jeunes fréquentent le Collège ou le Lycée Public partenaires, ce qui leur permet de rester au coeur de la vérité environnementale d’un jeune. Idem, notre internat est mixte. Les Footeux évoluaient dans un milieu de sportifs de haut niveau. La proximité avec les Basketteurs, Karatékas, Squash ou Sport automobile revêt un caractère pédagogique qui évite le coté ghetto du footballeur. La première difficulté pour un jeune qui vient de cité est bien souvent d’être capable de « vivre » dans un Internat avec des règles, des droits mais aussi des contraintes. L’éducateur doit aider à passer ce premier élément et il faut choisir des surveillants d’internat très impliqués dans la psychologie d’un jeune. On parle beaucoup de la nécessité de « bien prendre » ces jeunes. Comment faire ?… – J’ai toujours pensé qu’il fallait tout entreprendre pour inculquer des valeurs d’éducation à nos jeunes. Je suis convaincu que ce qui fait la différence entre la qualité de tel ou tel éducateur formateur, c’est cette capacité d’écoute du jeune. On l’oublie trop souvent mais le gamin sarthois est différent du gamin parisien, du gamin des cités, du petit Africain ou autre. De la qualité d’écoute de l’éducateur, de sa perspicacité à saisir (ou non) le gamin dans sa « psychologie », va découler un rapport propice ou non à une évolution possible. Plus que tout autre, le gamin des quartiers a besoin d’être cadré. Mon expérience me prouve que ces gamins, qu’on décrit trop souvent comme presque « inéducables », acceptent ces règles à condition qu’elles soient simples, réalistes et justes. Et surtout qu’il y ait respect et confiance mutuelle. Si vous gagnez la confiance du jeune, vous avez gravi une grande part du chemin qui mène vers une possible réussite. Autre règle fondamentale : avoir une « oreille attentive » au comportement du jeune dans le milieu scolaire ou à l’intérieur de l’internat. Le jeune motivé par le foot est le plus souvent attentif aux remarques du coach, mais qu’en est-il de son attitude ailleurs ? Quelles sont les erreurs à éviter ? – Ce sont les erreurs psychologiques qui sont les plus graves. Plus que les autres gamins, les gamins de quartier sont extrêmement sensibles à l’injustice et à l’humiliation en public. J’ai connu des échecs dans ma relation au jeune quand j’ai commis les deux erreurs suivantes. Premièrement, quand j’ai eu peur d’affronter le jeune qui commettait des fautes. Non, il faut oser dire la vérité, rectifier un comportement qui, sinon, sera ensuite difficile à rectifier plus tard. Il ne faut pas faire « l’autruche », donner vite des repères clairs et surtout ne jamais donner l’impression que « l’on ferme les yeux ». C’est là tout le doigté de l’éducateur. Deuxièmement, si des « choses difficiles » doivent être abordées avec ce jeune, il faut le faire dans une relation en tête à tête. Sanctionner un enfant ne signifie pas humilier. Il est nécessaire d’avoir un rapport franc et sincère avec ce gamin, surtout éviter la présence d’une tierce personne, s’interdire d’être « limite méchant » en présence de ses camarades. Le jeune ne retient que l’humiliation dans ce cas et c’est ensuite foutu dans la relation. Et sur le plan technique, comment développer leurs qualités ? – Tout d’abord ne pas « dénaturer » le jeu et les qualités du jeune. Il faut, au contraire, se servir de cette base forte. Le gamin de quartier, son truc, c’est une technique de jeu réduit. En effet, il a toujours joué des 4×4, des 3×3, ce qui développe adresse technique, qualité de la passe courte mais, pendant négatif, défaut de frappe de balle et de jeu devant le but (ils jouent souvent en cité avec des plots ou des piquets sans gardien de but). Là il faudra corriger et l’amener à une vision plus « lointaine » des espaces de jeu, donc adapter sa technique à ces dimensions supérieures. : la passe longue, la frappe de balle, le tir au but ainsi que le jeu de tête devront être abordés car souvent cela se joue au sol ! Par contre, le dribble est travaillé sans cesse et deviendra un atout important. Par ailleurs, chez ce jeune de quartier, il y a souvent l’abus du geste technique pour son côté esthétique, plaisir ou encore plus pour « chambrer » le copain, comme par exemple le dribble exagéré sans aucun sens ni logique par rapport au jeu. Le coach doit faire preuve de doigté pour garder au gamin ce plaisir naturel de son jeu, l’amener à prendre conscience ou non de son utilité dans telle ou telle situation de jeu. Là c’est compliqué car la fraîcheur du dribbleur fait du bien mais on joue au foot avec des copains, contre des adversaires et l’objectif ultime, c’est marquer des buts, gagner. Le pédagogue doit faire prendre conscience au jeune que le geste technique n’est qu’un moyen d’expression au service du JEU FOOT. A ce sujet pour avoir vu Gervinho dans sa progression (de la Cote d’Ivoire à La Roma aujourd’hui), quel parcours chez ce gamin qui est un des meilleurs attaquants de percussion en Europe. Jean-Marc Guillou l’a laissé dans sa spontanéité de dribbleur quand il était jeune et, au fil de sa carrière, Gervinho a gagné en qualité de jeu, appris à se montrer plus collectif et décisif. Mais son dribble « dévastateur » et son coté joyeux provocateur de duels lui donnent une dimension incontestable.Ensuite l’éducateur doit être capable de faire un diagnostic précis du potentiel du gamin à sa disposition. Attention à ne pas vouloir « tout, tout de suite » ou trop vite ; la règle d’or est la patience et personne ne peut présager à l’avance en combien de jours, de mois ou d’années le jeune trouvera son équilibre et « grandira » à vitesse grand V. L’exemple type, c’est Didier Drogba. Il a passé quatre ans chez nous où son manque de « sériosité » l’empêchait de progresser. Et puis soudain un tournant décisif lors des six derniers mois et, là, il était prêt à décoller ! Ce qu’il fera avec Guy Lacombe, technicien hors pair à Guingamp. Les raisons de cette superbe maturation sont multiples mais la patience a été la principale : on savait ce garçon pétri de potentiel, il fallait seulement prendre le temps et fonctionner par étapes pour le laisser éclore. Tout à l’heure, vous avez évoqué « l’esprit de la gagne ». Ce n’est pas un cliché ? – La gagne, ce n’est pas un mot barbare. Moi, j’aime les gagneurs, leur rage de vaincre car je sais qu’avec ces gamins-là, on a toujours possibilité d’avancer. Comme j’ai toujours dit, je préfère avoir un « pur-sang » au trop plein d’énergie que de pousser un « canasson » qui recule. Moi, j’aime les gamins généreux qui mettent leur coeur dans ce jeu de passion. Donc bien sûr la Gagne, mais pas à n’importe quel prix. On doit respecter le jeu, les règles, les partenaires, adversaires bien entendu et surtout admettre que la défaite est possible si l’adversaire joue mieux que toi. Pour moi la Gagne est un moteur fabuleux, qui nous incite à vouloir travailler, progresser jour après jour pour demain être encore meilleur. Et pour ceux qui risquent de mal comprendre ces paroles, comparons, regardons un Chanteur, un danseur, un comédien, etc. N’a-t-il pas envie un jour de passer à l’Olympia, d’être sur une scène, de jouer devant un public de connaisseurs qui seront intransigeants dans leurs critiques ? Eh bien si ! Cette dimension de spectacle, de jugement du public est aussi très présente dans la « vie de tout sportif ». Le champion veut gagner à l’OM, au Parc des Princes mais attention il faut être très solide, prêt psychologiquement à affronter cette difficulté dans des clubs où le résultat sera capital. On l’accepte dans le monde du spectacle, eh bien pour moi, la gagne me parait un moteur de volonté de progrès chez un jeune de caractère qui a envie de réussir. Pour avoir travaillé très longtemps avec des jeunes et aussi des Pros on oublie les valeurs psychologiques qu’il faut posséder pour réussir à parfois « entrer dans la cage aux lions ». Le champion se nourrit de l’adrénaline du résultat, du public. Je vois l’évolution du sport de haut niveau : de plus en plus de psychologues, de préparateurs de mental, sont présents dans les clubs, c’est une évolution nécessaire. Donc avec délicatesse et progressivité amenons notre gamin à découvrir le monde pro qui l’attend : notre responsabilité de pédagogue est de le préparer à ces échéances. Et dans ce domaine, le jeune de quartier par son insouciance, sa volonté de s’imposer et souvent j’ai été étonné du peu de stress rencontré dans des moments particuliers à enjeu. Le trac est moteur dans une progression mais le stress peut être dévastateur pour un jeune en formation. A propos des nouveaux joueurs français qui ont émergé lors de ce Mondial, que vous évoque le style de jeu de Pogba ? – C’est marrant que vous me reparliez de Pogba ! En regardant le match de l’équipe de France, je vois un gros plan sur lui et je dis à ma femme (ma grande confidente en ces moments) : Tu vois, ce gamin je le sens bien, C’est un teigneux, c’est un rebelle, il a la rage de jouer, la rage de gagner, il a de la fierté et de l’orgueil ». Moi, j’aime son style de jeu conquérant, enthousiaste voire guerrier. J’aime voir ses yeux qui pétillent de joie de jouer, je ne le connais pas mais les images me font penser que ce garçon débordant d’énergie a, comme on dit chez moi dans ma campagne Sarthoise, un « bon fond ». Il a envie de tout « avaler » et cela fait du bien à tous. Quel bonheur de voir ce joueur sans calcul, cette générosité sans limite. On rêve de rencontrer un jour un talent de ce niveau. Alors que répondre à ceux qui pensent que parfois il va trop loin dans son coté guerrier, qu’il s’envole parfois dans des grandes chevauchées indisciplinées, dans des replacements défensifs approximatifs, etc., à tous ces gens je vais leur dire d’accord avec ces réflexions mais laissez-nous ce « cheval fou », ne le dénaturez pas de suite en équipier docile et modèle. Non, ce joueur est fait pour percuter, pour créer la panique chez l’adversaire, pour avancer en force dans les lignes adverses. Malgré son jeune âge, Pogba me semble déjà de la dimension d’un Yaya Touré et, sur le plan du caractère, il me rappelle un certain Didier Drogba à son âge. Pogba est un leader né : il t’emmène, te transcende, t’amène le sourire, la fraicheur nécessaires à tout grand événement. Il fait partie de ces joueurs qui te réconcilient avec le foot et il fait partie des symboles du retour en grâce de notre Equipe de France vis-à-vis du public Français. Pour avoir été longtemps dans les tribunes, je dois avouer une vérité indéniable : le public se trompe rarement sur les caractéristiques humaines, sur la notion d’engagement, de don de soi de tel ou tel joueur. C’est comme lors d’un concert : on ressent profondément si l’artiste se « défonce » ou pas. Pour conclure sur le cas des Bleus dans cette Coupe du monde, tout part du match contre l’Ukraine au Stade de France, non ? – Si, certainement ! Deschamps a su prendre des options courageuses et déterminantes dans le choix de son groupe en appliquant un management tout en fermeté et en assurance sur ses choix. C’est ça l’autorité « naturelle ».A travers cette Coupe du monde, le public français a retrouvé bonheur, fraîcheur, et envie de se retrouver ensemble autour de ce bon match de Foot ! Mais la plus belle leçon à retenir, à mon sens, c’est que Deschamps, son adjoint Stéphan et tout le staff ont su redonner fierté et confiance à tous les éducateurs français qui oeuvrent au quotidien pour guider, enseigner « driver » tous ces gamins « plein de fougue et d’énergie » qui ont souvent aussi besoin de l’écoute et de la main tendue de l’adulte responsable. Ce n’est pas très tendance de dire ça aujourd’hui mais, moi, « je crois en la jeunesse »… à la condition qu’elle trouve face à elle des éducateurs passionnés, formés et accompagnants d’un parcours de vie du jeune qui nous est confié. Propos recueillis par Stéphane Beaud et Philippe Guimard  (1) Journée où des centaines de joueurs de 14/15 ans sont observés en situation de match par les responsables et éducateurs du centre de formation qui, in fine, recrutera une trentaine de joueurs parmi la masse des postulants.Respect particulier à mon Maitre Football, Jean Claude Trottel, qui, le premier m’a ouvert les yeux sur la pédagogie dans l’enseignement du jeu Football

Read more

Des Francs-Comtois sans le bac, mais avec la…

Est Républicain

Grand Angle Des Francs-Comtois sans le bac, mais avec la mention très bien !Candidats au bac, si vous lisez ces lignes, restez… sereins ! Vous pouvez rater vos examens et réussir dans la vie, comme en témoignent les parcours de ces quatre Francs-Comtois. Mais vous pouvez aussi décrocher votre diplôme, histoire de faire plaisir à vos parents…Pour le chef d’entreprise et rugbyman bisontin Thierry Petament, « à poil sous la douche, tout le monde s’en fout du bac, que tu sois thésard ou pas. L’important, c’est que tu as mouillé le maillot… » Photo Ludovic LAUDEChemise blanche, costard sombre, l’homme est pressé. Sur ressorts. L’oeil toujours rivé à sa montre et l’oreille vissée au téléphone portable. Sans cesse en mouvements. Un café gobé sur le coin du zinc et quelques cernes témoignent de son agenda surchargé et d’un récent aller-retour en Tunisie, pour développer son activité. Des yeux rougis qui trahissent le retour en France la veille. Et un passage par la case « salvatrice », celle des potes de mêlée, les Bisonquinze dont il est le président.Le chef d’entreprise est toujours entre deux rendez-vous. D’ailleurs, « ce n’est pas pour vous que je suis si bien habillé ce matin, désolé », nous dit-il. Mais pour Claude Jeannerot, le président du conseil général, que Thierry Petament rencontre avant de remettre ça juste après, avec Marie-Guite Dufay, la présidente de la région.Ce quadragénaire serait-il courtisé ? Oui. Il fait partie de ceux qui comptent. Un homme de réseaux. Pas seulement pour ce qu’il représente localement, à savoir un chef d’entreprises, originaire de Pontarlier, aujourd’hui Bisontin, président du groupe Orchestral Services, aux onze filiales, aux 11 MEUR de chiffre d’affaires et aux 930 salariés, spécialisé dans le service et la propreté industrielle. Mais aussi pour sa présence en novembre prochain, à Brisbane, Australie, qui accueillera le G20 : « J’ai été retenu comme une quinzaine de dirigeants français sur des critères d’âge, de présence au sein d’organisations patronales… pour en être un ambassadeur… »Rien, pourtant, ne prédestinait Thierry Petament à une telle carrière. Et surtout pas ses études : « Je n’ai aucune honte d’avoir été un très mauvais élève… L’école ne m’aimait pas et je le lui rendais bien. » Surtout l’abbé Lafleur, « le roi de la taloche… », à Saint-Joseph à Besançon, où le turbulent élève avait fini par atterrir. Pour passer, « et réussir », un CAP de cuistot, son unique diplôme. Auparavant, il avait surtout éreinté les établissements privés de Pontarlier et les nerfs de ses parents.Pour autant, pas de blessure, encore moins de complexe. « Mes rapports avec les études et les diplômes ? J’ai deux bacs : un d’eau chaude et un d’eau froide ! » sourit-ilEvidemment, à certains moments de son parcours, Thierry Petament ne cache pas qu’il a ressenti un manque : « J’ai piqué quelques suées, mais j’ai toujours fait front et retourné la situation à mon avantage. » Comme à l’orée de sa carrière lorsqu’il se retrouve devant son banquier et son expert-comptable : « Je les écoutais, ils me parlaient de BFR (besoin de fonds roulement), de capacité de financement… Je ne comprenais rien ! Ils ne l’ont jamais su… »Alors le baccalauréat, la durée des études et la pile de diplômes n’impressionneront jamais le bonhomme. « Je ne suis pas un intellectuel, mais je suis intelligent et ça, c’est fondamental pour avancer… Il faut savoir écouter. » L’anecdote n’est jamais loin : « J’ai reçu le prix de l’autodidacte qui m’a été remis à la Harvard School. Lors de la cérémonie, il y en avait, des diplômés au mètre carré ! Pourtant ce jour-là, ils étaient tous après moi et, à les écouter, c’est eux qui se disaient impressionnés par mon parcours ! » Pour le rugbyman, la réussite, finalement, ce n’est pas compliqué : « Quand après un entraînement, t’es à poil sous la douche, il n’y a pas plus de différences. Tout le monde s’en fout du bac, que tu sois thésard ou pas. L’important, c’est que tu as mouillé le maillot… »« Rentrer aujourd’hui dans la police sans le bac est encore possible »Changement de décor et d’univers. Direction la fonction publique. Et particulièrement le commissariat de police de Vesoul où, à 57 ans, Jean-Marc Sélariès, commandant à l’emploi fonctionnel, est adjoint au directeur départemental de la sécurité publique (DDSP) de Haute-Saône. Lui non plus n’a pas le bac, ce qui ne l’a pas empêché de gravir les échelons tout au long de sa carrière. Après trente et un ans dans la police, il aime toujours autant ce métier, qu’il a choisi après neuf ans effectués dans la marine marchande, avec son seul CAP d’électromécanicien en poche.Et c’est parce qu’il est impressionné par la série télévisée « Les Cinq dernières minutes », que ce natif de Carcassonne décide un beau jour de changer de voie. A 25 ans, il passe le concours de gardien de la paix. Un an d’école plus tard, il est affecté à Paris puis, six ans plus tard, réussit le concours d’inspecteur. Sorti en 1991 de l’école de Canne-Ecluses (77), il est affecté à la DST (Direction de la surveillance du territoire) puis à la section antiterroriste des Renseignements généraux, jusqu’en 1999.A la réforme des corps et des carrières de 1995, l’inspecteur Sélariès est devenu lieutenant. Pour avoir « une vision globale du métier et en vue d’une évolution de carrière », il intègre notamment un service judiciaire de police de proximité à Paris et prend le commandement d’une brigade de nuit durant un an. Nommé commandant en 2008, il devient en 2011 adjoint d’un commissaire en Seine-Saint-Denis, jusqu’à son arrivée à Vesoul, en 2013.« Sans cette réforme de 1995, j’aurais au mieux terminé inspecteur divisionnaire. A l’époque, il était impensable d’espérer devenir adjoint d’un DDSP », souligne le commandant Sélariès. « Rentrer aujourd’hui dans la police sans le bac est encore possible par le biais des adjoints de sécurité. Moi, pour préparer le concours d’inspecteur, j’ai dû prendre des cours de droit et faire des sacrifices. J’étais en concurrence avec des candidats bardés de licences, de maîtrises. Mais on y arrive, même en partant de la base. La preuve. »« Je ne me sens pas inférieur à ceux qui ont eu le bac. J’ai même beaucoup à leur apprendre.»Retour dans le monde de l’entreprise, à Belfort cette fois. Le sourire toujours accroché aux lèvres, Paul Grosjean a l’enthousiasme communicatif et le verbe haut. « J’aurais voulu être journaliste », se souvient-il, « mes rédactions étaient citées en exemple par mon instituteur, qui a quand même été obligé de m’emmener jusqu’au certificat d’études à coups de pied au cul ! Il faut dire que j’étais un garnement ! Mais sans lui, je ne serais pas là où je suis ».Paul Grosjean mesure aujourd’hui le chemin parcouru. Président de la chambre de métiers et de l’artisanat du Territoire de Belfort, il a dirigé l’instance régionale deux fois de suite et a même siégé à l’assemblée permanente des chambres de métiers de France. Il a fondé la CAPEB à Belfort, le syndicat référent pour 320 entreprises du bâtiment, et a présidé l’Union professionnelle artisanale. Il a aussi créé Franche-Comté Management Communication, pour promouvoir son entreprise de menuiserie sur les salons, et repris la gestion du parc des expos de Belfort-Andelnans en 2008.A 68 ans, ni regret, ni jalousie : « Je ne me sens pas inférieur à ceux qui ont eu le bac. J’ai même beaucoup à leur apprendre. J’ai toujours beaucoup lu et écrit. Mais à mon époque, on allait travailler plus facilement qu’au lycée. »C’est ainsi qu’à 14 ans, Paul Grosjean se retrouve à la quincaillerie Becker, à Belfort, sans se départir de son esprit frondeur : « Je devais aller à l’école un jour par semaine pour apprendre la technologie. Mais je séchais les cours. Quand le quincaillier concurrent l’a su, il m’a dénoncé et j’ai perdu ma place. J’ai alors fait l’école d’apprentissage Peugeot, travaillé à l’usine pendant trois ans comme coursier avant de devenir maçon-fumiste à la fonderie. J’ai passé le CAP de dessin à l’armée, pensant réintégrer mon poste, mais je me suis retrouvé en garniture, à la chaîne. »Ce qui l’incite à entrer à Alstom-Belfort où il fabrique des barres de rotors et de stators, avant de devenir vendeur-menuisier chez Belfort Equipement Nouveau, puis responsable de l’agence de menuiserie du groupe Rhin-Rhône avant sa restructuration : « J’y ai appris tout ce que je devais savoir pour devenir patron. En 1974, je me suis décidé. La menuiserie, c’était mon truc et j’ai créé mon entreprise. Finalement, je m’en suis bien tiré ! »Prenons de la hauteur et la route de Pontarlier. C’est là qu’à 41 ans, Erkan Goktas est à la tête d’une entreprise d’agencement « qui va bien ». « Nous avons 13 salariés, du travail jusqu’en janvier 2015, des marchés solides et une clientèle qui se renouvelle. Sans doute une bonne réputation. »Le bac ? Non, un CAP d’agencement. « Et puis une certaine philosophie qui commence par le respect, la dignité au travail. De là viennent la créativité, le savoir-faire. J’ai été élu meilleur formateur de Franche-Comté en 2002 pour le fait d’accueillir des jeunes gens en apprentissage. »Erkan est aujourd’hui à la tête d’un patrimoine immobilier important. « Est-ce que j’ai réussi ? Je n’en sais rien. Je sais juste qu’on ne m’a rien donné, que c’est juste et simplement avec mes efforts que j’en suis là. J’ai commencé à travailler très vite après mon CAP et puis j’ai créé ma société à 24 ans. En 2001, il y a eu un passage très difficile. En 2007, j’ai eu un programme de 47 logements et ça s’est lancé comme ça. »Erkan philosophe. Il lit beaucoup, s’interroge. Il bouillonne sans arrêt. « Il ne faut pas avoir peur d’apprendre », dit-il. Pour lui, l’accès au savoir n’est sûrement pas réservé à une élite. Le logo de son entreprise est un grand V avec ses initiales. Il énumère tous les mots commençant par cette lettre qui pourrait coller avec son histoire. « Mais c’est aussi et surtout le symbole de la part qui revient à chacun. C’est ma part de gâteau à moi. »Damien ROSET, Catherine HENRY, François ZIMMER et Didier FOHR

Read more

Larry Page : l’histoire inédite du vrai…

Journal du Net

Larry Page : l’histoire inédite du vrai fondateur de Google Vous connaissez le parcours de Steve Jobs et de Mark Zuckerberg. Mais, connaissez-vous celui de Larry Page, le créateur de Google ? Un jour de juillet 2001, Larry Page décida de virer tous les chefs du projet Google. Tous. Cela faisait cinq ans que Larry Page, alors étudiant de 22 ans diplômé de Stanford, avait eu une idée au beau milieu de la nuit. Il avait réussi à télécharger tout le Web et, en examinant les liens entre les pages, il avait vu l’information mondiale sous un angle complètement différent.Ce que Larry Page écrivit cette nuit-là devint la base d’un algorithme qu’il appela PageRank et qu’il utilisa pour alimenter un nouveau moteur de recherche Web appelé BackRub. Le nom n’a pas perduré.En juillet 2001, BackRub fut renommé en Google. Il avait déjà des millions d’utilisateurs, une liste impressionnante d’investisseurs et 400 employés, y compris environ une demi-douzaine de chefs de projet.Comme dans la plupart des start-up, les fondateurs de Google géraient en direct les ingénieurs. Alors que l’entreprise se développait, une couche de managers s’ajouta entre eux : les chefs de projets. A l’époque, Larry Page a 28 ans et il déteste ça. Comme Google n’embauchait que les ingénieurs les plus talentueux, il pensait qu’un niveau supplémentaire d’encadrement était non seulement inutile mais représentait également une entrave. Il soupçonnait également les chefs de projet de Google d’éloigner les ingénieurs des tâches auxquelles il était personnellement attaché. Par exemple, il avait exposé les grandes lignes d’un projet pour numériser tous les livres existants dans le monde et les rendre accessible en ligne, mais personne n’y travaillait. Il rejeta la faute sur les chefs de projet.Il décida que des changements étaient nécessaires. Au lieu de rendre compte aux chefs de projet, l’ensemble des ingénieurs de Google devaient maintenant s’adresser à une seule personne, un vice-président de l’ingénierie nouvellement embauché, Wayne Rosing, qui rendrait compte directement à Larry Page.D’après « I’m Feeling Lucky », témoignage de Douglas Edwards sur les premières années de Google, la directrice des ressources humaines, Stacey Sullivan, une femme austère qui porte la frange, pensait que le plan de Larry Page était dingue. Stacey Sullivan lui en fit part : « On ne peut pas s’organiser soi-même ! Les gens ont besoin de quelqu’un vers qui se tourner quand ils ont des problèmes ! ».Larry Page ignora ses conseils. Stacey Sullivan confia ses inquiétudes à Eric Schmidt. Au mois de mars, il était devenu président de Google. Tout le monde pensait qu’il serait PDG dès qu’il aurait la possibilité de quitter son emploi à plein temps en tant que PDG de Novell.Eric Schmidt était d’accord avec Stacey Sullivan ainsi que l’entraîneur exécutif de Larry Page, Bill Campbell, que tout le monde appelait « coach » car il avait été autrefois l’entraîneur de l’équipe de football de l’université de Columbia. Il marchait et parlait encore comme s’il arpentait la ligne de touche.Comme l’a exposé en détails Steven Levy sur sa propre histoire chez Google qui a fait du bruit, « In the Plex », un jour Bill Campbell s’est disputé avec Larry Page concernant son projet. Pour soutenir son point de vue, Bill Campbell fit défiler les ingénieurs dans le bureau de Larry Page pour qu’ils donnent leur point de vue. L’un après l’autre, ils racontèrent à Larry Page qu’en fait ils préféraient avoir un chef, quelqu’un qui pourrait mettre fin aux désaccords et donner des directives aux équipes.Mais Larry Page était obstiné.Il fallut peu de temps à Eric Schmidt pour s’opposer au plan de Larry Page. Nous étions en juillet 2001 et Eric Schmidt n’était pas devenu officiellement PDG. Donc, Larry Page continua. Il délégua Wayne Rosing pour annoncer la nouvelle.Cet après-midi-là, les quelques 130 ingénieurs et une demi-douzaine de chefs de projet firent leur apparition. Ils restèrent devant le bureau de Larry Page parmi les cabines et les canapés dépareillés de Google qui, comme tout le reste des meubles de bureau de l’entreprise, avaient été achetés à bon prix à des startup qui avaient mis la clé sous la porte.Au bout du compte, Wayne Rosing, un chauve qui porte des lunettes, commença à prendre la parole en expliquant que l’ingénierie se réorganisait : tous les ingénieurs lui rendraient maintenant compte, les chefs de projet n’avaient plus de travail.La nouvelle fut mal prise, les chefs de projet étaient abasourdis, on ne leur avait rien dit. Ils venaient de se faire virer devant tous leurs collègues.Les ingénieurs exigèrent une explication. Alors, Larry Page leur en donna une. Sans grande émotion apparente, prenant la parole d’un ton habituellement plat et mécanique, il expliqua qu’il n’aimait pas que des personnes qui ne sont pas ingénieurs encadrent celles qui le sont. Les ingénieurs ne devraient pas être encadrés par des managers ayant une connaissance technique limitée. Finalement, il ajouta que les chefs de projet de Google ne faisaient simplement pas du bon travail.Tout en parlant, Larry Page détournait le regard. Il ne regardait pas les gens en face. Bien qu’il ait du charisme avec une taille au-dessus de la moyenne et des cheveux presque blancs, il était maladroit.La nouvelle fut reçue dans un choeur de grognements. Enfin, un des ingénieurs présents dans la salle, Ron Dolin, commença à hurler vers Larry Page. Il affirma qu’une réunion de tout le personnel n’était pas un endroit pour effectuer une évaluation des performances. Ce que faisait Larry Page était « complètement ridicule », avoua-t-il et « totalement non professionnel ». »C’était nul » confessa plus tard un des chefs de projet qui était là. « Je me suis senti humilié. Larry Page disait devant tout le monde qu’on n’avait pas besoin de managers et il disait pourquoi il ne nous aimait pas. Il a dit des choses qui ont fait du mal à beaucoup de gens ».En définitive, les licenciements n’eurent pas lieu. Au lieu de ça, les chefs de projet que Larry Page avait eu l’intention de virer ce jour-là furent intégrés dans l’organisation des opérations de Google en plein essor sous la direction d’Urs Hözle.La réorganisation de Larry Page ne dura pas non plus longtemps. Les problèmes apparurent rapidement. Les projets qui avaient besoin de ressources ne les obtinrent pas. Les doublons devinrent un problème. Les ingénieurs voulaient des retours et se demandaient quel sens prenait leur carrière professionnelle.Finalement, Google commença à réembaucher des chefs de projet. »J’ai fait de mon mieux pour signaler qu’il y a une véritable valeur dans le management », rappelle Stacey Sullivan dans « I’m Feeling Lucky ». « Ce fut une leçon pour Larry Page ».En août 2001, Eric Schmidt s’était entièrement libéré de ses responsabilités chez Novell. Il devint PDG de Google. Et Larry Page fut très mécontent pendant longtemps.Tout le monde connaît l’histoire de Steve Jobs, la façon dont il fut renvoyé de l’entreprise qu’il avait créée, Apple, et il rentra d’exil des décennies après pour sauver l’entreprise.Ce que l’on comprend moins bien c’est que le conseil d’administration d’Apple et les investisseurs ont eu absolument raison de renvoyer Steve Jobs. Au début de sa carrière, il était grognon, méchant et destructeur. C’est seulement en quittant Apple, en devenant humble et en rencontrant le succès une deuxième fois (avec Pixar) qu’il fut capable de mûrir en devenant un leader qui revint chez Apple et en fit l’entreprise la plus précieuse au monde. Larry Page, c’est le Steve Jobs de Google.Comme Steve Jobs, Larry Page a un cofondateur, Sergey Brin, mais Larry Page a toujours été le véritable visionnaire et la force motrice de son entreprise.Et, tout comme les investisseurs d’Apple qui mirent Steve Jobs à la porte, les investisseurs de Google firent fi des souhaits de Larry Page et le forcèrent à embaucher un PDG pour jouer le rôle d’encadrement adulte.Tous les deux connurent une longue traversée du désert. L’exil de Steve Jobs fut plus dur, mais Larry Page passa également des années à l’écart du quotidien de Google. Comme pour Steve Jobs, ce fut seulement à travers ce long exil que Larry Page pu mûrir en prenant conscience de ses forces et de ses faiblesses.Alors, comme Steve Jobs, Larry Page revint avec de folles ambitions et de nouvelles déterminations. Lawrence Edward Page Par la claire et froide nuit du 7 janvier 1943, Nikola Tesla dormait tranquillement dans sa suite de l’hôtel New Yorker, 33 étages au-dessus des rues de Manhattan. Tout à coup, sa poitrine éclata de douleur, puis son coeur s’arrêta.Le lendemain, une femme de chambre de l’hôtel décida d’ignorer le panneau « ne pas déranger » qui pendait à la porte de Nikola Tesla. Elle trouva son corps. Le grand inventeur était mort.Immigrant serbe né en 1856, Nikola Tesla a inventé la manière dont la quasi-totalité de l’électricité dans le monde d’aujourd’hui est produite. Il a également conçu et créé les communications sans fil. Mais, il est mort après avoir passé la meilleure partie de ses dix dernières années à vivre de sa pension de retraite et à nourrir les pigeons, incapable de persuader de nouveaux investisseurs de financer ses folles idées les plus récentes. Il est mort en pensant qu’il pourrait inventer une arme qui mettrait fin à toutes les guerres, un moyen pour que l’électricité voyage sans fil à travers les océans et qu’il pourrait envisager d’exploiter l’énergie provenant de l’espace. Il est mort seul et endetté.Nikola Tesla était un homme brillant. Il parlait huit langues et avait une mémoire absolue. Les inventions apparaissaient dans son esprit complètement formées. Mais il était nul en affaires.En 1889, il déclara à son patron, Thomas Edison, qu’il pourrait améliorer ses moteurs et ses groupes électrogènes. Thomas Edison lui répliqua : « Si tu peux le faire, tu auras 50 000 dollars ». Nikola Tesla tint parole et en retour Thomas Edison lui donna une augmentation de 10 dollars.Nikola Tesla démissionna. Il créa sa propre entreprise, Tesla Electric Light & Manufacturing. Mais, il se trouva rapidement en désaccord avec ses investisseurs concernant la direction des affaires. Ils le renvoyèrent et il en vit de toutes les couleurs pendant un an.En 1900, il convainquit JP Morgan d’investir 150 000 dollars dans une autre entreprise. En 1901, il n’y avait plus rien. Nikola Tesla passa le reste de sa vie à demander à John Pierpont Morgan plus d’argent. Il n’obtint jamais rien de plus.L’année suivant la mort de Nikola Tesla, en 1944, le journaliste John Joseph O’Neill du New York Herald Tribune écrivit sa biographie. Nikola Tesla avait été son ami. »Pendant les dernières trois décennies de sa vie, il est probable que personne sur les dizaines de milliers de gens qui l’ont vu savait qui il était », conclu la biographie « Prodigal Genius : The Life of Nikola Tesla ». »Même si les journaux, une fois par an, faisaient la une sur Nikola Tesla et ses dernières prédictions concernant les merveilles scientifiques à venir, personne n’associait ce nom à l’homme excessivement grand et très mince qui portait des vêtements d’une époque révolue et qui nourrissait presque tous les jours ses amis à plumes ».   »Il faisait simplement partie de ces étranges individus de types très divers qui forment l’ensemble de la population d’une grande métropole ».Quarante et un ans après la publication de ces mots, en 1985, un enfant de 12 ans dans le Michigan finit la lecture de la biographie de Nikola Tesla et pleura.C’était Larry Page.Enfant d’un couple de professeurs en informatique de l’université de l’Etat du Michigan, Larry Page grandit dans une maison en désordre. Il y avait des ordinateurs, des gadgets et des magazines de technologie partout. Cette ambiance et des parents vigilants nourrirent sa créativité et son inventivité.A ce moment-là, Larry Page réalisa qu’il ne suffisait pas d’imaginer un avenir technologique innovant. Il ne suffit pas d’avoir de grandes idées. Elles ont besoin d’être commercialisées. Si Larry Page voulait être inventeur, il devait également démarrer une entreprise qui marche.L’histoire de Nikola Tesla a également appris à Larry Page à faire attention aux Thomas Edison que l’on rencontre de par le monde, des gens qui se serviront de vous et mettrons vos rêves au service de leurs propres finalités cyniques. Les règles de management de Larry Page Google s’est constitué en société le 4 septembre 1998, deux ans après le rêve de Larry Page sur son idée de classer les liens des pages Web en fonction du moment où ils apparaissent. Il s’est autoproclamé PDG et son meilleur ami Sergey Brin a été nommé cofondateur.Souvent, l’histoire oublie les cofondateurs. Chez Apple, Steve Jobs en avait deux. Chez Facebook, Mark Zuckerberg en avait quatre.Pour Larry Page, Sergey Brin était un acolyte de toute autre nature. Ils s’étaient rencontrés à Stanford, Sergey Brin était extraverti et dynamique, connu parmi ses professeurs pour son habitude à faire irruption dans leurs bureaux sans frapper.Pour la startup de Larry Page qui est devenue une entreprise de technologie mondiale, Sergey Brin apportait le côté extraverti dont avait grandement besoin Larry Page et qui lui manquait. Serge Brin était excellent en stratégie, en image de marque et au niveau du développement des relations entre Google et les autres entreprises. Pour Larry Page, c’était un partenaire, ou en définitive un assistant.Alors que l’on songe souvent à Google comme l’invention de deux jeunes caïds en informatique, Sergey et Larry, Larry et Sergey, la vérité c’est que Google est une création de Larry Page facilitée par Sergey Brin.Larry Page et Sergey Brin avaient rassemblé 1 million de dollars parmi les amis et la famille pour lancer leur startup. Ils quittèrent le campus de Stanford et louèrent un garage.En février 1999, la startup avait grandi plus vite que le garage. Elle emménagea dans un bureau au-dessus d’un magasin de vélos à Palo Alto en Californie. Sept mois plus tard, Google emménagea dans un bâtiment quelconque, dans un parc de bureaux à quelques kilomètres de l’autoroute près de Mountain View.A l’extérieur de ce bâtiment, sur un parking asphalté, du ruban jaune de police délimitait une zone où Larry Page, Sergey Brin et le reste des employés de Google, les Googlers comme ils se nommaient eux-mêmes, jouaient au hockey sur patins à roulettes. C’était du corps à corps. Les employés portaient des protections et, après avoir joué, rentraient au bureau couverts de sueur et parfois de bleus ou de sang. « Personne ne se retenait pour combattre les fondateurs quand il s’agissait d’attraper le palet. Plus vous jouiez d’arrache-pied, plus vous étiez respecté », écrit Douglas Edwards.A l’intérieur de l’immeuble de bureaux beige, le jeu était deux fois plus difficile. Oui, la nourriture était gratuite pour tous les employés et il y avait un massothérapeute sur le site. Et, avec ses ballons d’exercice et ses canapés aux couleurs vives partout, l’endroit ressemblait à un jardin d’enfants allié à un dortoir d’étudiants.Mais, pour les employés de Larry Page, travailler chez Google ressemblait plus à une soutenance de thèse sans fin. Partout où l’on regardait, il y avait des je-sais-tout qui s’attaquaient à vous avec joie. Au départ, Larry Page et Sergey Brin avaient garanti une journée de débats virulents et c’est comme ça que les liens se renforcèrent. Leurs discussions ne consistaient pas en des prises de bec. D’un côté, il y avait une série d’affirmations brutales qui allaient droit au but et de l’autre des insultes. Larry Page disait qu’une des idées de Sergey Brin était stupide, Sergey Brin disait que l’idée de Larry Page était simplette. Ils se traitaient l’un l’autre d’ordures.Après ces disputes, Larry Page ne ressentait jamais d’altération dans son amitié avec Sergey Brin. Donc, il formait son interaction avec les autres employés de Google de la même manière, sans fard. Un jour, Larry Page proclama devant une salle remplie d’employés de la première campagne marketing que leur métier était basé sur l’aptitude au mensonge.Larry Page avait tendance à communiquer à travers un langage corporel emphatique. Il haussait un sourcil de manière à vous faire comprendre qu’il pensait que votre idée était stupide. Si vous disiez quelque chose qui le mettait en colère ou mal à l’aise, il répondait sur un ton plus calme et ne pouvait pas vous regarder en même temps.Il devint tristement célèbre pour son manque de bonnes manières. Si lors de la démonstration d’un produit une application mettait du temps à se charger, ça l’incitait à commencer à compter à voix haute. »Mille, une fois ». »Mille, deux fois ».Larry Page encourageait ses cadres supérieurs à se battre à sa manière et à celle de Segey Brin. Lors de réunions avec des nouveaux employés, un des deux cofondateurs provoquait souvent une dispute relative à une décision commerciale ou un produit. Puis, ils se rasseyaient tous les deux et observaient calmement pendant que leurs seconds s’étripaient verbalement. Dès qu’un débat commençait à tourner en boucle, Larry Page disait : « Je ne veux plus en parler. Allez-y ».Ce n’est pas qu’il était un tyran, c’est juste qu’il se focalisait sur les idées des gens, pas sur leurs sentiments.La première directrice des ressources humaines de chez Google, Heather Cairns, se souvient avoir pris Larry Page sur le vif en train de discuter attentivement avec le concierge de Google après les heures de travail.Par la suite, elle demanda à Larry Page de quoi ils parlaient de manière aussi grave. »Je veux savoir comment les gens travaillent », répondit-il avec un exposé détaillé de la méthode utilisée par le concierge pour mettre des sacs vides au fond de chaque poubelle afin de pouvoir les remplacer facilement. »C’est très efficace, a approuvé Larry Page, il gagne du temps et j’en ai tiré une leçon ».Heather Cairns © Business InsiderLorsqu’on lui a demandé quelle était son approche de la direction de l’entreprise, Larry Page a raconté un jour à un employé de Google que sa méthode pour résoudre des problèmes complexes était de les réduire à du binaire, puis de simplement choisir la meilleure option, quels que soient les inconvénients auxquels il envisageait de se résoudre en terme de dommage collatéral.Lorsque Larry Page est allé à Stanford après avoir obtenu sa licence en informatique de l’université du Michigan, il s’attendait à devoir faire un choix entre devenir un universitaire ou créer une entreprise. Choisir la première option signifierait renoncer à l’opportunité de devenir l’inventeur d’applications largement utilisées. Mais, créer une entreprise l’obligerait à faire face à des gens d’une manière qui ne lui convenait pas. Pendant les premières années de Google, il a pu avoir le meilleur des deux : il fabriquait un produit que des millions de gens utilisaient et il créait une culture interpersonnelle intensément tournée vers des idées et des résultats plutôt que vers des subtilités émotionnelles.Pendant des années, Google s’est développé sous ce type de management.Pour beaucoup d’employés, le climat combatif était un prix raisonnable à payer pour travailler dans cette entreprise. Même dans les cas où l’ambiance laissait des blessures, les idées solides étaient gagnantes. Dans « In The Plex », Steven Levy raconte l’histoire de la manière dont Google a embauché Wesley Chan en 2000. Chef de produit associé, il était chargé de créer ce que l’on appelle Google Toolbar, un moyen pour les utilisateurs d’effectuer une recherche sans avoir à ouvrir Microsoft Explorer. Wesley Chan s’imaginait que personne ne l’utiliserait parce qu’il n’était d’aucune utilité particulière. Il décida que l’outil pourrait aussi faire bloqueur de fenêtre publicitaires.Il proposa l’idée à Larry Page lors d’une réunion. »C’est la chose la plus bête que j’ai jamais entendue. D’où tu sors ? », protesta Larry Page.Toutefois, Wesley Chan était quelqu’un de courageux. Peu après, il installa en secret la barre d’outils améliorée sur l’ordinateur de Larry Page. Lorsque celui-ci signala plus tard devant une salle pleine qu’il avait moins de fenêtres publicitaires, Wesley Chan lui en donna la raison. La barre d’outils était lancée.Finalement, Larry Page mit par écrit les règles relatives à l’encadrement :·  Ne pas déléguer. Faites tout ce que vous pouvez faire vous-même pour que ça aille plus vite.·  N’interférez pas si vous n’apportez rien. En fait, laissez les gens qui travaillent parler entre eux pendant que vous faites autre chose.·  Ne soyez pas un bureaucrate.·  Les idées sont plus importantes que l’âge. Ce n’est pas parce qu’on est jeune que l’on ne mérite pas le respect et la collaboration.·  La pire des choses que vous pouvez faire, c’est empêcher quelqu’un de faire quelque chose en disant : « Non. Un point c’est tout ». Si vous dites « Non », vous devez l’aider à trouver un meilleur moyen d’y arriver.Les subtilités d’interaction sociale n’étaient pas les seules règles que Larry Page se faisait un plaisir de violer.En 1999, par exemple, la méthode utilisée par des grandes entreprises du Web telles qu’eBay, Yahoo et Google pour ajouter de l’espace à l’hébergement des serveurs était devenue une pratique assez routinière. Elles achetaient des serveurs et les mettaient dans des cages qu’elles installaient dans des entrepôts géants appartenant à des fournisseurs indépendants. Les sociétés d’entreposage s’acquittaient des frais liés à l’alimentation en électricité qui faisait fonctionner les serveurs et à l’air conditionné qui les gardait au frais. Les propriétaires des sites Web payaient l’emplacement au mètre carré. Larry Page pensait que si Google allait payer au mètre carré, il allait mettre autant de serveurs qu’il pouvait. Il a démonté les serveurs et a commencé à chercher des moyens de réduire leur taille. La première chose à faire ? Trouver tous les boutons « arrêt ».Il paraît qu’il a demandé pourquoi quelqu’un voudrait éteindre un serveur. Serveurs © GoogleDébarrassé d’éléments inutiles et équipé de panneaux en liège pour empêcher les câbles de s’entremêler, Google développa des nouveaux serveurs ultraminces. Ils étaient horribles. Mais, à moyen terme, Google et son précoce concurrent Inktomi finiraient par payer le même prix pour l’hébergement des serveurs (1 500 serveurs pour Google et 50 pour Inktomi). Par conséquent, la recherche sur Google était beaucoup plus rapide et Inktomi, tout comme beaucoup d’autres concurrents de recherche de Google, s’est laissé distancer.Malgré le succès éclatant de la gestion de Google pendant ses deux premières années (ou peut-être à cause de lui), Larry Page s’apprêtait à perdre son travail. Dans la nature Pendant la première moitié de 1999, Google connut un élan de popularité incroyable. Ce succès nécessita de nouveaux capitaux pour investir dans des nouveaux serveurs et dans du personnel en nombre grandissant. Mais Google ne faisait pas encore de bénéfices.Alors que Larry Page et Sergey Brin commençaient à chercher de nouveaux investisseurs, Larry Page avait une exigence qui primait sur les autres : lui et Sergey Brin garderaient une majorité de droits de vote dans l’entreprise et le contrôle principal de Google.D’abord, les investisseurs en capital-risque de la Silicon Valley se moquèrent du concept.Google continua à croître et les rires s’estompèrent. Les deux entreprises en capital-risque les plus importantes de la Silicon Valley, Kleiner Perkins et Sequoia Capital, ne mirent pas longtemps avant d’investir pour un total de 25 millions de dollars aux conditions fixées par Larry Page.Mais, les investisseurs avaient leurs propres exigences. En échange d’avoir permis à Larry Page et Sergey Brin de garder une participation majoritaire dans Google, ils voulaient que Larry Page, qui avait alors 26 ans, démissionne de son poste de PDG. Ils voulaient un encadrement adulte.Comme Steven Levy l’a signalé, John Doerr, l’associé de Kleiner Perkins, assura à Larry Page qu’un PDG de niveau mondial ferait un « bien meilleur travail dans la création d’une équipe de management de niveau mondial ».Larry Page accepta. Google avait besoin d’argent.Toutefois, quelque mois après la conclusion de l’accord, alors que les investisseurs ne pouvaient plus reculer, Larry Page appela John Doerr et confia à l’investisseur en capital-risque que lui et Sergey Brin avaient changé d’avis. »En fait, nous pensons que nous pouvons tous les deux diriger l’entreprise », ajouta-t-il.Larry Page a toujours voulu tout contrôler. Un ami d’université confia à Steven Levy que même à l’époque où ils étaient à l’université du Michigan, Larry Page « voulait avoir le contrôle et était paranoïaque » parce qu’il « voulait s’assurer que tout était fait comme il fallait ».En 1998, Larry Page et Sergey Brin décidèrent d’amener les huit employés de Google en sortie collective de ski au lac Tahoe. Au moment de louer une camionnette, ils s’aperçurent qu’ils pouvaient économiser 2,50 dollars par jour s’ils choisissaient un seul chauffeur. Larry Page se désigna. Il conduisit tout le temps pendant que les autres à l’arrière jouaient aux maths.Pour Douglas Edwards, c’était un fait : « Larry Page n’allait pas mettre sa vie entre les mains de quelqu’un d’autre ».La vérité, c’est que Larry Page pensait qu’il n’avait besoin d’aucune aide pour diriger Google, du moins pas au-delà de l’aide que lui apportait Sergey Brin, et c’est ce qu’il soutint à son nouvel investisseur.John Doerr s’énerva. Pour lui, il était évident que Larry Page n’était pas prêt à diriger un grand groupe et la manière dont il avait exprimé son point de vue n’était pas encourageante.Il suggéra que Larry Page rencontre tout un tas de PDG de grandes entreprises de technologie (Steve Jobs d’Apple, Andy Grove d’Intel, Jeff Bezos d’Amazon) et leur pose des questions sur leur travail. John Doerr pensait que Larry Page serait convaincu qu’il pouvait avoir besoin d’aide.Aussitôt, Larry Page fut d’accord.Une fois les rencontres terminées, il appela John Doerr et lui apporta des nouvelles surprenantes. Il était convaincu qu’après tout Google pouvait avoir un PDG, mais uniquement si ce PDG était Steve Jobs.Il était évident que cela n’arriverait jamais, mais John Doerr était content d’apprendre que Larry Page pensait qu’il y avait quelqu’un au monde qui pouvait être utile à Google. Ils commencèrent ensemble à faire passer des entretiens à d’autres candidats. John Doerr présenta Larry Page et Sergey Brin à Eric Schmidt, PDG de Novell.Eric Schmidt convenait à Larry Page. Contrairement à la plupart des cadres, Eric Schmidt avait été programmeur. En fait, des années auparavant, il avait écrit le code d’un logiciel que Google utilisait encore. Sergey Brin aimait Eric Schmidt parce qu’il était un « brûleur », un participant du festival psychédélique annuel Burning Man dans le désert du Nevada.Google engagea Eric Schmidt. Il rejoignit l’entreprise en tant que président en mars 2001 et devint PDG en août.Larry Page s’en accommoda mais ça ne le satisfit pas. Il se faisait du souci pour sa position dans la nouvelle hiérarchie (son titre devait être « président aux produits ») et il commença même à se demander s’il n’était pas devenu inutile à l’entreprise qu’il avait fondée.C’est lors de cette période incertaine, en juillet 2001, que Larry Page entraîna Google à travers sa réorganisation d’ingénieurs mal conçue, prouvant immédiatement à la plupart des observateurs que John Doerr avait raison depuis le début.Il se peut que la démarche de Larry Page provienne d’un motif différent : se débarrasser des managers qui pourraient, au final, faire un rapport à Eric Schmidt. Il se peut que cela ait laissé croire qu’il s’agissait d’un moyen pour Larry Page de garder le contrôle.Google avait fait du chemin avec Larry Page depuis le temps où il gérait l’entreprise comme un jeu de hockey associé à une soutenance de thèse. Mais mine de rien, les employés de Google étaient ravis d’avoir maintenant à la tête des réjouissances quelqu’un au style plus habile et empathique. C’est pour cela qu’Eric Schmidt a été embauché Pendant les années qui ont suivi, Google s’est développé et est devenu un énorme commerce mondial.Toujours en concertation avec Larry Page et Sergey Brin, Eric Schmidt préservait un certain équilibre. Il embaucha une équipe de cadres, construisit une force de vente et introduisit Google en Bourse.Tout le monde chez Google considère encore Larry Page comme le grand patron. Il ratifie chaque embauche et le jour où Google est entré en Bourse le 19 août 2004, c’est sa signature qui a transformé des centaines de gens en millionnaires ainsi que Larry Page lui-même.Mais, petit à petit, Larry Page devint un personnage plus lointain, plus isolé. Pour utiliser une métaphore des premières années de Google, Larry Page ne conduisait plus la camionnette. Il avait embauché un chauffeur et il rêvassait à l’arrière du véhicule.Ce fut une lente retraite. Pendant les premières années, Larry Page garda une main de fer sur le développement des produits de Google.Un des premiers efforts d’Eric Schmidt après être arrivé en tant que PDG en août 2001 fut de convaincre Larry Page qu’il était nécessaire pour Google d’embaucher un vice-président pour la gestion des produits. Larry Page pensait que le poste était superflu.Néanmoins, Eric Schmidt le persuada d’embaucher Jonathan Rosenberg qui venait d’Excite@Home, une startup de haut niveau massivement financée qui a fait faillite à la fin des années 90.Mais, ce n’est pas uniquement parce que Jonathan Rosenberg avait obtenu le poste et avait le titre que ça voulait dire que Larry Page allait lui faire de la place chez Google. »J’arrivais en réunion du personnel avec mon ordre du jour structuré, la recherche de marché que nous avions besoin de faire, la feuille de route sur un et deux ans que nous avions besoin de développer et Larry Page, en gros, nous ridiculisaient », a témoigné plus tard Jonathan Rosenberg auprès d’un journaliste.Jonathan Rosenberg  © Business InsiderJonathan Rosenberg avait également eu des difficultés à embaucher des chefs de produits. Il continuait d’amener les meilleurs diplômés en programmes de MBA d’Harvard et Stanford et Larry Page continuait de décliner.Finalement, Jonathan Rosenberg interrogea Larry Page sur ce qui n’allait pas.Larry Page lui demanda de cesser de dire aux ingénieurs ce qu’ils devaient faire et de cesser d’embaucher d’autres personnes qui n’étaient pas des ingénieurs qui leur disaient également ce qu’ils devaient faire.Une des plus proches amies de Larry Page chez Google, Marissa Mayer, cadre prometteuse, mit finalement la puce à l’oreille de Jonathan Rosenberg, comme le raconte Steven Levy. Il devrait arrêter d’essayer d’embaucher des diplômés en MBA en tant que chefs de projet et commencer à embaucher des diplômés en informatique avec une participation dans l’entreprise.La seule façon pour Larry Page de lâcher du lest et de permettre l’arrivée d’un palier de gestion entre lui et les ingénieurs de Google était que ce palier de gestion soit composé d’autres ingénieurs.Jonathan Rosenberg écouta son conseil et ça marcha. Bientôt, Google eut une armée de chefs de produits. Larry Page avait fait un pas en arrière.Ayant passé quelques années de sa carrière chez Google, Jonathan Rosenberg rencontra la mère de Larry Page. Son fils lui faisait visiter le campus. »Que fait-il comme travail ? » demanda la mère de Larry Page à propos de Jonathan Rosenberg. »Eh bien, au début je n’étais pas sûr, mais j’ai décidé que maintenant il est la raison pour laquelle parfois j’ai du temps libre », riposta Larry Page. Le lent processus Cela ne veut pas dire que Larry Page n’a jamais cessé de vérifier, approuver et contribuer aux produits expédiés par Google.Avec Sergey Brin, Larry Page contrôlait la majorité des actions avec droit de vote de l’entreprise. Au fond, l’endroit lui appartenait et travailler sur des produits l’intéressait de la même manière que passer des contrats avec les gens ne l’intéressait pas. De plus, il était très fort pour ça.Avant que Google lance Gmail en 2004, son créateur, Paul Buchheit, l’amena pour un compte-rendu dans le bureau ouvert en forme de cabine de Larry Page.Alors que Paul Buchheit appelait le programme sur l’ordinateur de Larry Page, le chef fit une grimace. »C’est trop lent », souligna Larry Page.Paul Buchheit n’était pas d’accord. Il disait que ça se chargeait bien. »Non, insista Larry Page. Il a fallu 600 millisecondes à la page pour se charger ». »Comment pouvez-vous le savoir ? », remarqua Paul Buchheit. Mais, lorsqu’il retourna à son bureau, il regarda les journaux du serveur. Il avait fallu exactement 600 millisecondes à Gmail pour se charger.Larry Page gardait une voix décisive lors de grosses initiatives stratégiques comme l’offre à des milliards de dollars concernant le spectre du sans fil et son acquisition à 1,65 milliards de dollars du site de partage vidéo YouTube en 2006.Mais les gens de chez Google avaient le sentiment que Larry Page était moins impliqué dans le management quotidien de l’entreprise.Lorsqu’Eric Schmidt avait de grandes réunions avec ceux qui lui rendaient directement compte, un groupe qui s’appelait le comité d’exploitation (Operating Committee ou OC), Larry Page faisait son apparition mais il avait en permanence un ordinateur portable ouvert devant lui. Sergey Brin faisait de même.Aucun ne participait à la réunion jusqu’à ce qu’Eric Schmidt dise quelque chose du genre : « Eh les gars, puis-je avoir maintenant votre attention » ? Alors, Larry Page ou Sergey Brin levaient la tête et donnaient un avis tranchant sur le sujet. Typiquement, Larry Page mettait son grain de sel tout en regardant fixement dans un coin de la salle.Parfois, Larry Page s’agitait un peu plus et Eric Schmidt l’arrêtait avec précaution en disant : « On t’a entendu, Larry, merci ».Sur certains points, l’avis de Larry Page était simplement ignoré. Par exemple, une fois Google était devenu le site publicitaire le plus prospère. Larry Page décida qu’il devait détruire l’industrie de la publicité. Selon lui, il était évident qu’il s’agissait d’un système très inefficace qui pouvait disparaître grâce à la technologie. Non seulement l’entreprise choisit de ne pas entrer dans ce combat, mais Eric Schmidt et ses cadres supérieurs publicitaires, Tim Armstrong et Sheryl Sandberg, firent de leur mieux pour s’assurer qu’aucun des nombreux et importants clients d’agences publicitaires aient vent des idées de Larry Page sur le sujet.Au fil du temps, Larry Page apprit à beaucoup apprécier les points forts d’Eric Schmidt. L’objectif de Larry Page était d’inventer quelque chose qui rendait le monde meilleur et qu’il soit commercialisé de manière correcte. Google Search avait certainement atteint le premier objectif et Eric Schmidt avait joué un rôle énorme dans la création d’une entreprise qui pouvait financièrement tirer profit de l’idée de Larry Page. Il ne ressemblait pas aux vauriens qui avaient tourmenté la vie de Nikola Tesla.Alors qu’avec Eric Schmidt il se sentait plus à l’aise, Larry Page reculait davantage.En 2007, il décida qu’il assistait à trop de réunions. Il avait tendance à refuser ces sollicitations, mais les cadres de Google qui voulaient sa contribution avaient trouvé un moyen de contourner le problème : envoyer directement ses convocations aux réunions à ses assistants qui remplissaient scrupuleusement son agenda. Alors, Larry Page se débarrassa de ses assistants. Quiconque souhaitait le rencontrer était obligé de le traquer jusqu’à son bureau chez Google. Dans cette situation, ses carences sociales de longue date lui servaient bien. Il était fort pour renvoyer les gens avec un air d’approbation amical tout en continuant à marcher.Il en avait aussi assez de répondre à des questions. En 2008, Larry Page annonça à l’équipe de communication de Google que cette année, ils pourraient obtenir huit heures de son temps en tout et pour tout. Pourquoi devrait-il s’adresser au monde extérieur ?C’était le travail d’Eric Schmidt. Peut-être pouvons-nous aller plus loin Un jour, fin 1998, la première directrice des ressources humaines de Google, Heather Cairns, attrapa Larry Page et Serge Brin en train de jouer aux Lego dans le garage de l’entreprise. »Mais qu’est-ce que vous faites ? », demanda-t-elle de manière effrontée mais sympathique. L’engin face à Larry Page sur la table avait des bras robotisés avec des roues en caoutchouc au bout. »Nous essayons d’imaginer comment tourner la page d’un livre sans utiliser une main humaine, expliqua Larry Page. Un jour, nous mettrons sur Internet toutes les publications qui existent dans le monde afin que tous y aient accès ». »Certainement, répondit Heather Cairns, certainement ».Peu de temps après, Larry Page passa une journée entière dans Palo Alto à conduire avec une petite caméra de poche. Il conduisait sur quelques mètres, s’arrêtait et prenait quelques photos. Puis, il redémarrait sur quelques mètres supplémentaires et recommençait. Il rentrait à la maison et téléchargeait les photos sur son ordinateur. Ce qu’il vit le convainquit que sa dernière grande idée était réalisable. Google installa un certain nombre de caméras sur un certain nombre de voitures et photographia tout le long chaque rue dans le monde. Le résultat aboutirait à une représentation digitale et consultable de tout le monde physique (ou de ses parties les plus pertinentes), disponible en ligne.Au cours des années Eric Schmidt, les livres et le projet photos devinrent tous deux des produits Google populaires. Google Books, lancé en 2003, a embrassé 20 millions de volumes, et il continue à progresser. Google Street fut lancé en 2007. A compter de 2014, il rendit visible chaque artère des 50 pays à partir de presque chaque navigateur Web de la planète.Même lors des premiers jours de Google, Larry Page a toujours voulu que l’entreprise soit plus qu’une simple recherche Web de base. Depuis qu’il était enfant, il rêvait à des plans qui changeraient le monde. Lorsqu’il était étudiant à l’université du Michigan, il proposait que le système de bus soit remplacé par quelque chose qu’il appelait PRT (personal rapid transit system ou transport personnel automatisé), essentiellement un monorail sans chauffeur avec des wagons séparés pour chaque utilisateur. Plus tard, à Stanford, il bombarda de questions son professeur, Terry Winograd, avec des idées qui ressemblaient aux projets ultérieurs de Nikola Tesla. L’une d’entre elles concernait la construction d’une très longue corde qui partirait de la surface de la terre et serait placée en orbite, rendant la conquête spatiale moins onéreuse. Une autre proposition requérait des cerfs-volants solaires qui amèneraient l’énergie de l’espace.Avec Google qui maintenant faisait des profits issus de la publicité et Eric Schmidt qui gérait sa croissance régulière, Larry Page commença à réaliser que, finalement, il était dans une position lui permettant de faire de ses idées une réalité.En 2005, une des idées de Larry Page fut d’installer des ordinateurs portables avec un accès à Google dans la poche de chaque personne sur la planète. Alors, cette année, Larry Page orienta le développement de l’entreprise Google vers l’achat d’une petite startup avec la même énorme ambition ridicule. Il s’agissait d’Android. Son PDG et cofondateur était Andy Rubin, un ancien cadre de chez Apple qui avait aussi développé un téléphone connecté à Internet autrefois célèbre mais qui a échoué, du nom de Sidekick.L’acquisition d’Android fut une oeuvre de Larry Page. Il mit Eric Schmidt au courant de la transaction (qui coûta à l’entreprise environ 50 millions de dollars) une fois celle-ci réalisée. Sergy Brin était au courant mais ça ne l’intéressait pas plus que ça.Larry Page mit en place Android en tant qu’entité à part. Elle était uniquement une partie de Google de manière nominative et elle donnait à Andy Rubin la latitude complète pour la gérer sans interférer avec l’entreprise mère. Android possédait même son propre bâtiment. Le badge des employés de chez Google ne leur permettait pas d’y avoir accès. Eric Schmidt agissait essentiellement comme si Android n’existait pas, surtout parce que 50 millions de dollars sortis du paquet d’argent monstrueux que possédait Google n’était pas suffisant pour qu’il s’en inquiète s’ils avaient été bien dépensés.En ce qui le concerne, Larry Page transforma Android en un projet passionnant. Il passa un temps énorme avec Andy Rubin, tellement que souvent il se sentait coupable de ne pas s’occuper de plus près de Google. Une fois encore, c’était du ressort d’Eric Schmidt.Pendant les deux années qui suivirent, Andy Rubin développa un système d’exploitation mobile qu’il pensait être à la pointe de la technologie.Ensuite, lors d’un voyage à Las Vegas en 2007, alors qu’il était dans un taxi, Andy Rubin ouvrit son ordinateur portable pour regarder Steve Jobs présenter la version d’un téléphone connecté à Internet pour Apple.C’était l’iPhone et il était incroyable. »Zut ! pensa-t-il. Il va falloir refaire la conception de notre téléphone ».Andy Rubin demanda à son chauffeur de taxi de se garer afin de pouvoir regarder le reste de la présentation de Steve Jobs.Environ un an plus tard, en septembre 2008, T-Mobile lança le G1, le premier téléphone utilisant le logiciel développé par l’équipe d’Andy Rubin. Le système d’exploitation ressemblait et fonctionnait comme une imitation de l’iPhone. Mais, il s’agissait d’une bonne imitation dont l’installation était gratuite pour les fabricants de téléphones.Le système d’exploitation proliférait alors que les fabricants se dépêchaient de s’adapter à Apple et que les fournisseurs d’accès essayaient de rester compétitifs avec AT&T, l’unique réseau à proposer l’iPhone. Au deuxième trimestre de 2009, les téléphones fonctionnant sous Android représentaient 1,8% des ventes. Lors du même trimestre de 2010, les ventes d’Android représentaient 17,2% du marché, devant Apple qui, pour la première fois, possédait 14%. Bientôt, Android deviendrait le système d’exploitation le plus célèbre au monde.En 2010, Larry Page avait maintenant joué un rôle clé dans la création de deux technologies omniprésentes qui avaient probablement amélioré la vie des gens de par le monde. Google, qui avait démarré son existence en tant que projet de thèse, avait aidé à faire de l’Internet un outil infiniment plus puissant pour les utilisateurs de tous les jours. Puis, sans encadrement adulte, Larry Page encourageait le développement d’Android. Maintenant, Android faisait des smartphones une denrée tellement bon marché que ce n’était qu’une question de temps jusqu’à ce que tout le monde sur la planète possède un ordinateur connecté à Internet.La réalisation d’un tel deuxième succès retentissant, cette fois en tant que manager, donna à Larry Page une énorme confiance en ses propres capacités de gestion. Il était suffisamment conscient pour se rendre compte qu’au début de sa carrière il n’avait pas assez délégué. Il était content de constater qu’il avait été capable de le faire avec Andy Rubin.Larry Page a toujours eu des problèmes pour faire confiance aux gens. Ça changeait. Peut-être était-ce parce que maintenant il avait une famille. Lors d’un discours de remise des diplômes à l’université du Michigan, il  parlait de son père, de sa mère, de sa nouvelle épouse Lucy Southworth et de leur enfant. « Tout comme moi, vos familles vous ont amenés ici, et vous les avez amenées ici. Gardez-les près de vous et souvenez-vous : ce sont elles qui comptent vraiment dans la vie ».Alors qu’Android était prospère et que Larry Page avait mûri, le coeur de métier de Google construit autour de la recherche et de la publicité s’épanouit sous la direction d’Eric Schmidt. En 2010, Google avait une capitalisation boursière de 180 milliards de dollars et 24 000 employés. C’était une grosse entreprise.Elle connaissait également les problèmes des grosses entreprises. Claire Cain Miller, journaliste au New York Times, en a détaillé plusieurs d’entre eux dans un article de novembre 2010 intitulé « Google se développe et travaille à conserver les esprits les plus imaginatifs ».Dans son récit, Claire Cain Miller cite plusieurs employés et anciens de Google qui affirment que l’entreprise était devenue trop bureaucratique et s’était trop développée. Elle écrit que Google avait pour habitude de limiter à 10 les groupes d’ingénieurs qui travaillaient sur des projets, mais ce chiffre avait récemment augmenté à 20 ou même 40. « Pire », d’après elle, « les ingénieurs disent qu’ils ont été incités à fabriquer moins de nouveaux produits et à se concentrer sur l’amélioration des produits existants ».Un chef de projet lui a raconté qu’il savait qu’il était temps de quitter Google à cause de toutes les personnes qu’il devait mettre en copie sur ses e-mails. Selon lui, il pensait qu’il existe une catégorie de personnes capable de fuir cet argent relativement facile et conséquent à cause de leur mécontentement lié à de tels procédés.Un autre chef de projet a assuré à Claire Cain Miller qu’il pensait partir parce que travailler chez Google voulait dire travailler sur des produits qui ont une très faible exposition au public.Claire Cain Miller a même cité Eric Schmidt disant qu’il s’inquiétait de la situation. »Il fut une époque où trois personnes chez Google pouvaient créer un produit de classe internationale et le livrer. Cette époque est révolue », raconte Eric Schmidt dans le livre.Lorsque l’article de Claire Cain Miller est sorti, Eric Schmidt était furieux. Un porte-parole de Google téléphona au journal et exigea qu’elle soit écartée (elle ne l’a pas été).En 2010, en plus de la bureaucratie, le Google d’Eric Schmidt dû également faire face à un autre problème relatif à une grande entreprise. Ce n’était plus la nouvelle super force de la Silicon Valley. C’est Facebook qui l’était devenue.En 2007, un chef de projet du nom de Justin Rosenstein quitta Google pour aller chez Facebook. Il écrivit alors une note à ses anciens collègues en décrivant Facebook comme le « Google d’hier… cette entreprise qui est sur le point de changer le monde, encore assez petite où chaque employé a un impact immense sur l’organisation ».En 2010, 142 des 1 700 employés de Facebook étaient des réfugiés de Google.Parmi les cadres supérieurs de Google, l’âge de l’entreprise était ressenti d’une manière différente. Eric Schmidt n’avait jamais entièrement remanié la manière contradictoire et houleuse avec laquelle les décisions étaient prises au sommet pendant l’ère de Larry Page. Une décennie plus tard, les affrontements à répétition avaient transformé les cadres en des rivaux amers qui refusaient presque de travailler les uns avec les autres.A l’automne 2010, Larry Page ressentit toutes ces faiblesses chez Google. Il flaira également un autre problème qui lui semblait bien plus inquiétant : sous la titularisation autrement réussie d’Eric Schmidt, l’entreprise avait ramené ses ambitions au niveau précédent.En 2009, Google fit des bénéfices pour un montant de 6,5 milliards de dollars et possédait 20 000 employés. Larry Page regarda ces chiffres et pensa : « Nous avons tout cet argent, nous avons tous ces gens. Pourquoi ne faisons-nous pas plus de choses ? »Il ne put s’empêcher de penser que la seule vrai dernière chose importante que Google avait fait récemment c’était Android qui, aux yeux d’Eric Schmidt, ne présentait pas d’intérêt.Larry Page était heureux en ménage et était plus ou moins en dehors de la sphère publique. Il profitait dans les coulisses de sa vie de visionnaire leader de Google. Mais, il avait commencé à se demander si Eric Schmidt était la bonne personne pour mener l’entreprise vers l’avenir.   Vers la fin de cette année, Larry Page eut un entretien avec Steven Levy pour son livre « In the Plex ». Le journaliste lui demanda s’il espérait redevenir PDG. Ce dernier lui donna une réponse mièvre : « J’ai vraiment aimé ce que j’ai fait, répondit-il. Je pense être capable de changer beaucoup de choses de manière positive, ce qui me fait me sentir vraiment bien, et je ne vois pas la possibilité de changer cela ».Puis, il se leva et quitta la pièce. L’entretien était terminé.Pourtant, une minute plus tard, il revint. Il s’adressa à Steven Levy en ces termes : « J’avais le sentiment que les gens ne travaillaient pas assez sur l’efficacité ». Pour lui, « Google ne se donnait pas les moyens d’y arriver ».Larry Page admettait que la recherche-publicité avec ses marges de bénéfices de folie et sa croissance durable était exactement le genre de machine à faire de l’argent que son héros Nikola Tesla aurait utilisé pour financer ses rêves les plus fous. Aujourd’hui, il avait la chance de faire les choses différemment. Voir Google travailler sur des choses sans ambition le rendait un peu dingue.Lorsqu’il donna ce discours de remise des diplômes à l’université du Michigan en 2009, la frustration était perceptible dans la voie de Larry Page. Il raconta aux diplômés son voyage en Inde quelques années auparavant. Ils visitaient un village pauvre où les eaux usées dévalaient les rues. Larry Page annonça que les eaux usées étaient infectées par la polio, la même maladie qui tua son père.Larry Page © Google »Si la polio avait persisté, il en aurait été très contrarié, même si nous avions un vaccin » affirma Larry Page. « Le monde est sur le point d’éliminer la polio, avec 328 personnes infectées jusqu’à présent cette année. Réglons cela rapidement ».A l’automne 2010, les frustrations de Larry Page éclatèrent au grand jour lors d’une réunion concernant l’analyse de produits. Eric Schmidt, Sergey Brin, Larry Page et les cadres supérieurs en charge des produits chez Google étaient présents, accompagnés de leurs personnels sénior respectifs. Comme d’habitude, Larry Page s’assit tranquillement à la table en regardant son téléphone. Devant, un cadre présentait un nouveau produit pour aider les utilisateurs à trouver, hors connexion, le bon magasin pour faire leurs courses.Le cadre était en plein discours lorsque, tout à coup, Larry Page l’interrompit : « Non, dit Larry Page avec emphase, on ne fait pas ce genre de choses ».La salle fit le silence. »Nous fabriquons des produits qui exploitent la technologie pour résoudre de gros problèmes pour des centaines de milliers de gens ».Il continua : « Regardez Android, Gmail, Google Maps, Google Search. C’est ça que nous faisons. Nous fabriquons des produits sans lesquels il est impossible de vivre ». »Ce n’est pas fini ».Larry Page ne criait pas, il n’en avait pas besoin. Le message était haut et clair.Ce mois de décembre-là, Larry Page, Sergey Brin et Eric Schmidt se réunirent pour parler de ce qui est évident.Lors de l’appel sur les résultats de Google le 20 janvier 2011, Eric Scmidt annonça que pour lui, c’était terminé en tant que PDG. Le poste revenait une fois de plus à Larry Page.Eric Schmidt, qui devint président exécutif, envoya un tweet plus tard dans la journée : « Encadrement adulte terminé ». Un Larry Page différent Larry Page accepta le poste de PDG avec une rapide détermination.D’abord, il réorganisa les postes de direction de l’entreprise. Il prit une poignée des divisions produits les plus importantes de l’entreprise, y compris YouTube, Ads et Search et mit un manager du style PDG au-dessus de chacune d’entre elles. Larry Page voulait reproduire la réussite qu’il avait eue avec Andy Rubin chez Android.Alors, Larry Page et Google répondirent finalement à la menace de Facebook avec leur propre réseau social, Google+.A la fin de ce premier été, Google avait reconçu tous ses produits en leur donnant une apparence unique et cohérente.En 2012, Larry Page dépensa 12,5 milliards de dollars dans le rachat de Motorola, principalement pour l’acquisition de brevets destinés à protéger Android contre des procès venant d’Apple et autres.Google se dirigea vers le matériel en dévoilant Chromebook, un ordinateur portable fonctionnant sous le système d’exploitation Android et un ordinateur futuriste exploitable sur le Web que les utilisateurs pourraient porter comme des lunettes, appelé Google Glass.Chromebook © GoogleFin 2012, Google commença à installer des câbles Internet à fibre optique à Kansas City, donnant à tout le monde un accès Internet gratuit 100 fois plus rapide que le haut débit.Ces démarches surprirent le monde entier mais pas ceux qui connaissaient Larry Page. Depuis qu’il était enfant, il avait de grands et improbables rêves et faisait tout ce qu’il pouvait pour les rendre réels aussi vite que possible.Toutefois, ce ne fut que plus tard que ceux qui travaillaient en proche collaboration avec Larry Page virent clairement à quel point il avait changé pendant ces années loin du coeur de l’action.En février 2013, les cadres de Google de par le monde se rassemblèrent au Carneros Inn, un hôtel rustique dans les vignes vallonées de Napa Valley. C’était la retraite annuelle top secrète de deux jours des cadres.Parmi les participants se trouvaient Susan Wojkicki, chargée des énormes activités publicitaires chez Google, Andy Rubin, directeur d’Android, Salar Kamangar, PDG de YouTube, Sundar Pichai, à la tête de la division de Google Chrome et Vic Gundotra, le patron de Google+. Chacun amena les membres sénior de son personnel.Le premier jour de la retraite, tout le monde se rassembla dans la salle de bal aux rideaux blancs de Carneros Inn pour assister à un discours de Larry Page.De sa voix rauque, il annonça à l’assemblée que les ambitions de Google étaient incroyablement élevées mais que ses objectifs ne seraient jamais atteints si les gens présents dans la salle n’arrêtaient pas de se bagarrer. A partir de maintenant, Google aurait une « tolérance zéro pour ceux qui se bagarrent ». Larry Page reconnut que l’entreprise, dans ses plus jeunes années, avait exigé de ses dirigeants d’être agressifs les uns envers les autres. Lui-même, sans doute, avait-il été le plus agressif d’entre eux.Mais il s’agissait du temps où les problèmes de Google étaient linéaires, par exemple le besoin de développer la part de marché de tous ses produits, de zéro à la victoire. Aujourd’hui, avec Google qui se trouve mondialement en tête dans la plupart des catégories de produits pour lesquels elle est en concurrence, l’entreprise faisait face à ce que Larry Page appelle des problèmes n au carré. Google avait besoin de se développer 10 fois plus. L’entreprise avait besoin de créer des nouveaux marchés, de résoudre des problèmes d’une manière pas encore imaginée. Pour résoudre des problèmes n au carré, les cadres de Google allaient devoir apprendre à travailler ensemble.Les cadres de Google furent surpris par ce discours, particulièrement les plus anciens. Depuis l’époque à laquelle Larry Page et Sergey Brin appelaient chacune des idées qu’ils n’aimaient pas « stupide », pour ne pas dire « mauvaise ». Le combat, c’était la manière de fonctionner chez Google.Certains d’entre eux se souvenaient de ce jour de juillet 2001 lorsque Larry Page avait insulté et renvoyé une poignée de chefs de projets devant tous leurs pairs. Mais, lorsque ce jour-là les participants dans la salle de bal de Carneros Inn regardèrent Larry Page, ils virent quelqu’un de très différent du gosse qui avait construit le premier rack de serveur dans son dortoir. Les cheveux de Larry Page étaient devenus gris. Il avait grossi, comme un homme d’âge mûr. Suite à la paralysie d’une corde vocale, sa voix était rocailleuse et fatiguée. Comprendre chaque besoin Le 19 mars 2014, Larry Page donna une interview lors d’une conférence TED à Vancouver au Canada. Lors de son allocution, Larry Page et son interviewer, Charlie Rose, étaient assis sur des chaises hautes sur la scène, séparés par une table.L’interview était essentiellement préparée. Larry Page, sa conseillère en relations publiques Rachel Whetstone et sa directrive marketing Lorraine Twohill avaient passé la veille à travailler sur la présentation dans un hôtel de Vancouver.Maintenant, Larry Page et Charlie Rose regardaient un écran géant situé derrière la scène. Sur l’écran, il y avait un match de boxe sur jeu vidéo. Un des boxeurs avait coincé l’autre dans un coin et cognait sans pitié sur son adversaire.Le boxeur qui gagnait était dirigé par un programme d’ordinateur à intelligence artificielle créé par Google.Larry Page expliqua à Charlie Rose qu’il s’agissait de l’avenir de Google. Larry Page souligna que toute l’intelligence artificielle de Google pouvait « voir » les mêmes pixels sur l’écran qu’un joueur humain. Elle avait appris à jouer toute seule. Larry Page s’exclama : « Regardez comme elle se débrouille bien. Imaginez si cette sorte d’intelligence était envoyée sur votre calendrier ».Charlie Rose, enthousiaste mais un peu perdu, gloussa. De même, l’assemblée n’avait aucune idée où Larry Page voulait en venir. Les répétitions n’avaient pas marché et ce n’était la faute ni de Rachel Whetstone, ni de Lorraine Twohill.En termes de capacité à se connecter aux autres humains, Larry Page a fait du chemin depuis cette journée de maladresses en juillet 2001. Mais, il n’est toujours pas très fort lorsqu’il s’agit de s’exprimer en public. Le fond est là, mais il est enseveli sous un bric-à-brac de phrases à moitié finies et d’interminables discours. Larry Page n’est pas Steve Jobs. Il n’est même pas Mark Zuckerberg. C’est pourquoi, le public n’a fondamentalement pas conscience de ce que Google et Larry Page veulent exactement faire.Alors que Larry Page entame sa quatrième année de nouveau à la tête de Google, l’entreprise est dans une forme fantastique. Le cours est au-dessus de 700 dollars l’action et il n’est pas difficile d’imaginer un jour où le chiffre d’affaires de Google sera de 100 milliards par an.Et pourtant, Larry Page croit que l’entreprise est confrontée à une question existentielle : est-ce que Google peut proposer autre chose de fantastique après Google Search ?Entre Google Search et Android, Larry Page et Google peuvent se vanter d’avoir créé deux plateformes technologiques utilisées dans le monde entier par des milliards de gens.Mais Google offre Android gratuitement. La contribution d’Android à l’essentiel de Google est qu’il met Google Search et Google Search Ads dans la poche de millions de gens à travers le monde. A cet égard, il ne s’agit pas du tout d’une nouvelle activité pour Google, c’est simplement une extension de l’activité principale de Google. 90% du chiffre d’affaires de Google provient encore de la publicité, 70% des revenus globaux de Google proviennent encore de Search Ads.Le danger pour Google c’est que finalement (pas cette année, pas cette décennie, mais inévitablement) ce soit tellement énorme qu’elle s’empare de presque tout l’argent que n’importe quelle entreprise sur la planète dépense dans le marketing. Aussi fou que cela puisse paraître, c’est plausible. Le chiffre d’affaires de Google est déjà plus important que tout l’argent que les vendeurs dépensent dans la publicité des magazines et des journaux réunis. Elle possède déjà tout, sauf la plus petite partie du marché de la publicité en ligne. Google Search n’a plus de place pour se développer.Pour Larry Page, cela veut dire que maintenant, il passe trop de temps à se demander ce que l’avenir sera et comment Google va le créer.Il a beaucoup d’idées et, maintenant qu’il a retrouvé sa place, il a des ingénieurs qui s’y attèlent.Il n’a jamais renoncé au système de transport qu’il avait présenté à l’université du Michigan. Actuellement, il a des ingénieurs qui travaillent sur les voitures sans chauffeur.Puis, il y a l’intelligence artificielle. En plus de dominer les jeux vidéo, celle de Google était également capable de visionner l’ensemble du contenu de YouTube, tirer les enseignements et dessiner le portrait d’un chat.Il y a une filiale de Google appelée Calico qui travaille sur des solutions aux problèmes du vieillissement et de la mort.Google a une autre filiale, Google Fiber Inc., qui relie les foyers de Kansas City, d’Austin au Texas et de Provo dans l’Utah avec un Internet 100 fois plus rapide que le haut débit. Il se peut que Google Fiber s’étende à neuf autres villes, y compris Phoenix dans l’Arizona, Charlotte en Caroline du Nord et Portland dans l’Oregon.En 2013, Larry Page déplaça Andy Rubin, qui se trouvait à la tête d’Android, vers les robots et lui demanda de commencer à y travailler. Larry Page a imaginé un monde dans lequel les robots pourraient faire des choses telles que s’occuper des personnes âgées, remplir nos voitures sans chauffeur de provisions et de produits ménagers pendant que l’on travaille. A la fin de 2013, Google acheta l’entreprise Boston Dynamics qui fabrique des humanoïdes et des robots qui ressemblent à des animaux. Certains d’entre eux sont destinés à l’industrie militaire.Toujours en 2013, Larry Page rencontra l’ancien cadre d’Apple, Tony Fadell, le concepteur de l’iPod, et le persuada de vendre à Google sa nouvelle entreprise, Nest, pour 3,2 milliards de dollars. Nest fabrique des thermostats connectés à Internet. En avril 2014, Google vient d’acheter Titan Aerospace, une entreprise qui fabrique des drones.Chez Google, ils appellent les grandes idées des « moonshots » (concepts créatifs, collaboratifs et innovants à long terme). Il y en a bien d’autres : cela va des montgolfières qui diffusent le spectre d’Internet en fournissant un accès aux endroits du monde qui en manquent, aux projets pour produire des montres sous Android.Larry Page admet que la diversité et le nombre d’idées rendent certains investisseurs de l’entreprise nerveux. Ils s’inquiètent : est-ce que Google peut rester concentré ou bien s’agit-il de suivre les pas de tant de géants de la technologie qui ont précédé l’entreprise, s’éparpillant dans toutes les directions, poursuivant trop d’idées folles ? Et qui a réellement besoin d’un ordinateur qui peut battre un humain aux jeux vidéo ?La réponse de Larry Page à ces inquiétudes est double. Premièrement, il pense qu’il sera plus facile pour Google de travailler sur des « moonshots » plutôt que sur des produits sans intérêt. Sa logique : moins de concurrence. Les meilleurs travailleront aussi chez Google parce que les meilleurs aiment travailler sur des projets ambitieux.Deuxièmement, Larry Page affirme que ces projets font partie de l’offre faite au monde pour une meilleure recherche.Au fil des années, Larry Page a proposé une large définition de ce que devrait être Google Search.En 2012, il déclara à un journaliste que « le parfait moteur de recherches devrait comprendre vos besoins. Il devrait comprendre tout de manière approfondie et vous le rendre sous la forme exacte de vos besoins ».Lors de l’inauguration à la conférence Google de 2013, Larry Page affirma que dans le long terme « d’ici 50 ans », il espérait que le logiciel de Google soit capable de « comprendre vos connaissances, vos lacunes et comment organiser le monde de manière à ce qu’il puisse résoudre des problèmes importants ».Alors, dans l’esprit de Larry Page, si vous rentrez chez vous et que vous avez froid, votre montre bracelet Google effectuera une recherche pour comprendre pourquoi. Le résultat de la recherche fera que votre thermostat fonctionnant grâce à Google montera le chauffage.De même, si vous êtes à cours de lait et que votre frigo Google indique à votre voiture sans chauffeur fonctionnant grâce à Google d’aller en chercher (sans aucun doute en payant avec votre porte-monnaie Google), il s’agira d’une fonction de recherche.La clé pour comprendre la diversité des « moonshots » de Google c’est de comprendre que l’idée de Larry Page d’une « recherche parfaite » fonctionne uniquement si tous les produits avec lesquels vous interagissez sont compatibles les uns avec les autres.Par exemple, le produit de recherche le plus avancé de Google aujourd’hui, Google Now, est capable de faire des choses telles que prévenir les utilisateurs d’Android qu’ils doivent partir tout de suite s’ils veulent éviter les bouchons et avoir leur avion à temps. Mais, cela est seulement possible grâce à son accès aux b

Read more

Bac philo : les 20 textes qu’il faut avoir lus…

Le Nouvel Observateur

Le compte à rebours a commencé : les bacheliers de Terminales générale et technologique plancheront le 16 juin pour le bac philo, toutes séries confondues.  »L’usage de la raison est-il une garantie contre l’illusion », « Y a-t-il un devoir de mémoire »… Les pronostics vont bon train.Après avoir récapitulé les sujets tombés en philo dans les différentes séries ces trois dernières années, « le Nouvel Observateur » et Rue des Ecoles ont sélectionné pour vous les 23 textes qu’il faut avoir lus avant de se présenter à l’épreuve. Pour ne pas se noyer, pour ne pas se louper. Au sommaire (passer sur le titre pour accéder directement au texte) :  1. Le sujet La conscience : Descartes,  Discours de la méthode La perception : Alain,  81 Chapitres sur l’esprit et les passions L’inconscient : Freud,  Métapsychologie Autrui : Merleau-Ponty,  Phénoménologie de la perception Le désir : Épicure (342-270 av. J.-C.),  Doctrines et Maximes L’existence et le temps : Pascal,  Pensées , Lafuma 47 (1670) 2. La culture Le langage : Rousseau,  Discours sur l’origine et les fondements de l’inégalité parmi les hommes L’art : Hegel,  Esthétique I Le travail et la technique : Marx,  Le Capital , Livre I, 3e section, chapitre 7, 1 La religion : Nietzsche,  L’Antéchrist L’histoire : Ricoeur,  Histoire et vérité 3.  La raison et le réel Théorie et expérience : Claude Bernard,  Introduction à l’étude de la médecine expérimentale La démonstration : Pascal,  De l’esprit géométrique L’interprétation : Dilthey,  Introduction à l’étude des sciences humaines Le vivant : Kant,  Critique de la faculté de juger La matière et l’esprit : Merleau-Ponty,  Signes La vérité : Bachelard,  La Formation de l’esprit scientifique   4. La politique La société : Hobbes,  Du Citoyen La justice et le droit : Rousseau,  Du Contrat social L’État : Montesquieu,  De l’Esprit des Lois , Livre III, chapitre 9 5. La morale La liberté : Sartre,  Cahiers pour une morale Le devoir : Kant,  Fondements de la métaphysique des moeurs Le bonheur : Épictète (vers 50 – vers 130), Manuel  Les précieux extraits :  1. Le sujet  La conscience : Descartes, Discours de la méthode , 4e partie (1637) Thème : le sujet Si la formule « Je pense, donc je suis » est restée célèbre, c’est qu’elle marque une rupture dans l’histoire de la philosophie. Pour connaître soi et le monde, il faut, comme le souligne Descartes, partir de la conscience de soi et non de l’expérience du monde – voir ainsi le sujet pensant comme première certitude. Je ne sais si je dois vous entretenir des premières méditations que j’ai faites ; car elles sont si métaphysiques et si peu communes, qu’elles ne seront peut-être pas au goût de tout le monde. Et toutefois, afin qu’on puisse juger si les fondements que j’ai pris sont assez fermes, je me trouve en quelque façon contraint d’en parler. J’avais dès longtemps remarqué que, pour les moeurs, il est besoin quelquefois de suivre des opinions qu’on sait être fort incertaines, tout de même que si elles étaient indubitables, ainsi qu’il a été dit ci-dessus, mais, pource [parce] qu’alors je désirais vaquer seulement à la recherche de la vérité, je pensai qu’il fallait que je fisse tout le contraire, et que je rejetasse, comme absolument faux, tout ce en quoi je pourrais imaginer le moindre doute, afin de voir s’il ne resterait point, après cela, quelque chose en ma créance, qui fût entièrement indubitable. Ainsi, à cause que nos sens nous trompent quelquefois, je voulus supposer qu’il n’y avait aucune chose qui fût telle qu’ils nous la font imaginer. Et pource qu’il y a des hommes qui se méprennent en raisonnant, même touchant les plus simples matières de géométrie, et y font des paralogismes, jugeant que j’étais sujet à faillir, autant qu’aucun autre, je rejetai comme fausses toutes les raisons que j’avais prises auparavant pour démonstrations. Et enfin, considérant que toutes les mêmes pensées, que nous avons étant éveillés, nous peuvent aussi venir quand nous dormons, sans qu’il y en ait aucune, pour lors, qui soit vraie, je me résolus de feindre que toutes les choses qui m’étaient jamais entrées en l’esprit n’étaient non plus vraies que les illusions de mes songes.Mais, aussitôt après, je pris garde que, pendant que je voulais ainsi penser que tout était faux, il fallait nécessairement que moi, qui le pensais, fusse quelque chose. Et remarquant que cette vérité : je pense donc je suis, était si ferme et si assurée, que toutes les plus extravagantes suppositions des sceptiques n’étaient pas capables de l’ébranler, je jugeai que je pouvais la recevoir, sans scrupule, pour le premier principe de la philosophie que je cherchais.   La perception : Alain, 81 Chapitres sur l’esprit et les passions (1917) Professeur de philosophie et auteur de nombreuses chroniques, Alain a considérablement influencé la pensée du XXe siècle (Raymond Aron, Simone Weil, pour ne citer qu’eux). Dans cet extrait, il souligne le caractère parcellaire et confus de la sensation, et affirme que la perception est paradoxalement une construction de l’esprit : percevoir, c’est déjà penser. On soutient communément que c’est le toucher qui nous instruit, et par constatation pure et simple, sans aucune interprétation. Mais il n’en est rien. Je ne touche pas ce dé cubique. Non. Je touche successivement des arêtes, des pointes, des plans durs et lisses, et réunissant toutes ces apparences en un seul objet, je juge que cet objet est cubique. Exercez-vous sur d’autres exemples, car cette analyse conduit fort loin, et il importe de bien assurer ses premiers pas. Au surplus il est assez clair que je ne puis pas constater comme un fait donné à mes sens que ce dé cubique et dur est en même temps blanc de partout, et marqué de points noirs. Je ne le vois jamais en même temps de partout, et jamais les faces visibles ne sont colorées de même en même temps, pas plus du reste que je ne les vois égales en même temps. Mais pourtant c’est un cube que je vois, à faces égales, et toutes également blanches. [...] Revenons à ce dé. Je reconnais six taches noires sur une des faces. On ne fera pas difficulté d’admettre que c’est là une opération d’entendement, dont les sens fournissent seulement la matière. Il est clair que, parcourant ces taches noires, et retenant l’ordre et la place de chacune, je forme enfin, et non sans peine au commencement, l’idée qu’elles sont six, c’est-à-dire deux fois trois, qui font cinq et un. Apercevez-vous la ressemblance entre cette action de compter et cette autre opération par laquelle je reconnais que des apparences successives, pour la main et pour l’oeil, me font connaître un cube ? Par où il apparaîtrait que la perception est déjà une fonction d’entendement [...] et que l’esprit le plus raisonnable y met de lui-même bien plus qu’il ne croit.   L’inconscient : Freud, Métapsychologie , « L’Inconscient » (1915) Si la vie psychique était pleinement transparente et cohérente, l’hypothèse de l’inconscient ne serait nullement nécessaire. Or, comme le soutient le fondateur de la psychanalyse, c’est par l’interprétation des rêves, des lapsus ou encore des actes manqués que le sujet peut comprendre et guérir ses troubles psychiques On nous conteste de tous côtés le droit d’admettre un psychique inconscient et de travailler scientifiquement avec cette hypothèse. Nous pouvons répondre à cela que l’hypothèse de l’inconscient est nécessaire et légitime, et que nous possédons de multiples preuves de l’existence de l’inconscient. Elle est nécessaire parce que les données de la conscience sont extrêmement lacunaires ; aussi bien chez l’homme sain que chez le malade, il se produit des actes psychiques qui, pour être expliqués, présupposent d’autres actes qui, eux, ne bénéficient pas du témoignage de la conscience. Ces actes ne sont pas seulement les actes manqués et les rêves, chez l’homme sain, et tout ce qu’on appelle symptômes psychiques et phénomènes compulsionnels chez le malade ; notre expérience quotidienne la plus personnelle nous met en présence d’idées qui nous viennent sans que nous en connaissions l’origine et dont l’élaboration nous demeure cachée. Tous ces actes conscients demeurent incohérents et incompréhensibles si nous nous obstinons à prétendre qu’il faut bien percevoir par la conscience tout ce qui se passe en nous en fait d’actes psychiques ; mais ils s’ordonnent dans un ensemble dont on peut montrer la cohérence, si nous interpellons les actes inconscients inférés. Or, nous trouvons dans ce gain de sens et de cohérence une raison, pleinement justifiée, d’aller au-delà de l’expérience immédiate. Et s’il s’avère de plus que nous pouvons fonder sur l’hypothèse de l’inconscient une pratique couronnée de succès, par laquelle nous influençons, conformément à un but donné, le cours des processus conscients, nous aurons acquis, avec ce succès, une preuve incontestable de l’existence de ce dont nous avons fait l’hypothèse.   Autrui : Merleau-Ponty, Phénoménologie de la perception (1945) Fondateur, avec Sartre et Simone de Beauvoir, de la revue Les Temps modernes, Merleau-Ponty s’interroge ici sur la nature de « l’autre » et montre qu’il ne saurait se réduire à un corps matériel : autrui est immédiatement, et quand bien même il serait considéré comme inaccessible (en dehors de toute communication), reconnu comme sujet dans un dialogue potentiel – ce que Merleau-Ponty nomme « intersubjectivité ». (…) l’objectivation de chacun par le regard de l’autre n’est ressentie comme pénible que parce qu’elle prend la place d’une communication possible. Le regard d’un chien sur moi ne me gêne guère. Le refus de communiquer est encore un mode de communication. La liberté protéiforme, la nature pensante, le fond inaliénable, l’existence non qualifiée, qui en moi et en autrui marque les limites de toute sympathie, suspend bien la communication, mais ne l’anéantit pas. Si j’ai affaire à un inconnu qui n’a pas encore dit un seul mot, je peux croire qu’il vit dans un autre monde où mes actions et mes pensées ne sont pas dignes de figurer. Mais qu’il dise un mot, ou seulement qu’il ait un geste d’impatience, et déjà il cesse de me transcender : c’est donc là sa voix, ce sont là ses pensées, voilà donc le domaine que je croyais inaccessible. Chaque existence ne transcende définitivement les autres que quand elle reste oisive et assise sur sa différence naturelle. Même la méditation universelle qui retranche le philosophe de sa nation, de ses amitiés, de ses partis pris, de son être empirique, en un mot du monde, et qui semble le laisser absolument seul, est en réalité acte, parole, et par conséquent dialogue.   Le désir : Épicure (342-270 av. J.-C.), Doctrines et Maximes Contrairement à l’idée que se fait l’opinion commune, l’épicurisme ne consiste ni à donner libre cours à ses désirs ni à mener une vie de débauche. Comme le montre ici Épicure lui-même, être hédoniste, ce n’est pas rechercher tous les plaisirs mais atteindre le plaisir maximal, c’est-à-dire l’absence de troubles de l’âme, par l’usage de la raison contre les passions. C’est un grand bien à notre avis que de se suffire à soi-même, non qu’il faille toujours vivre de peu, mais afin que si l’abondance nous manque, nous sachions nous contenter du peu que nous aurons, bien persuadés que ceux-là jouissent le plus vivement de l’opulence qui ont le moins besoin d’elle, et que tout ce qui est naturel est aisé à se procurer, tandis que ce qui ne répond pas à un désir naturel est malaisé à se procurer. En effet, des mets simples donnent un plaisir égal à celui d’un régime somptueux si toute la douleur causée par le besoin est supprimée, et, d’autre part, du pain d’orge et de l’eau procurent le plus vif plaisir à celui qui les porte à sa bouche après en avoir senti la privation.L’habitude d’une nourriture simple et non pas celle d’une nourriture luxueuse, convient donc pour donner la pleine santé, pour laisser à l’homme toute liberté de se consacrer aux devoirs nécessaires de la vie, pour nous disposer à mieux goûter les repas luxueux, lorsque nous les faisons après des intervalles de vie frugale, enfin pour nous mettre en état de ne pas craindre la mauvaise fortune. Quand donc nous disons que le plaisir est le but de la vie, nous ne parlons pas des plaisirs voluptueux et inquiets, ni de ceux qui consistent dans les jouissances déréglées, ainsi que l’écrivent des gens qui ignorent notre doctrine, ou qui la combattent et la prennent dans un mauvais sens. Le plaisir dont nous parlons est celui qui consiste, pour le corps, à ne pas souffrir et, pour l’âme, à être sans trouble.Car ce n’est pas une suite ininterrompue de jours passés à boire et à manger, ce n’est pas la jouissance des jeunes garçons et des femmes, ce n’est pas la saveur des poissons et des autres mets que porte une table somptueuse, ce n’est pas tout cela qui engendre la vie heureuse, mais c’est le raisonnement vigilant, capable de trouver en toute circonstance les motifs de ce qu’il faut choisir et de ce qu’il faut éviter, et de rejeter les vaines opinions d’où provient le plus grand trouble des âmes.   L’existence et le temps : Pascal, Pensées , Lafuma 47 (1670) Philosophe attaché à Port-Royal, Pascal montre ici comment notre capacité à imaginer l’avenir est un véritable obstacle au bonheur : la faculté humaine qui nous permet de concevoir le temps dans son étendue se révèle en effet une entrave, dans la mesure où elle nous fournit les moyens de ne pas considérer le présent dans sa valeur propre. Nous ne nous tenons jamais au temps présent. Nous anticipons l’avenir comme trop lent à venir, comme pour hâter son cours ; ou nous rappelons le passé, pour l’arrêter comme trop prompt : si imprudents, que nous errons dans les temps qui ne sont pas nôtres, et ne pensons point au seul qui nous appartient ; et si vains, que nous songeons à ceux qui ne sont plus rien, et échappons sans réflexion le seul qui subsiste. C’est que le présent, d’ordinaire, nous blesse. Nous le cachons à notre vue, parce qu’il nous afflige ; et s’il nous est agréable, nous regrettons de le voir échapper. Nous tâchons de le soutenir par l’avenir, et pensons à disposer les choses qui ne sont pas en notre puissance, pour un temps où nous n’avons aucune assurance d’arriver.Que chacun examine ses pensées, il les trouvera toutes occupées au passé et à l’avenir. Nous ne pensons presque point au présent ; et, si nous y pensons, ce n’est que pour en prendre la lumière pour disposer de l’avenir. Le présent n’est jamais notre fin : le passé et le présent sont nos moyens ; le seul avenir est notre fin. Ainsi nous ne vivons jamais, mais nous espérons de vivre ; et, nous disposant toujours à être heureux, il est inévitable que nous ne le soyons jamais. 2. La culture  Le langage : Rousseau, Discours sur l’origine et les fondements de l’inégalité parmi les hommes (1775) Toute représentation sensible est singulière ; seule la notion (ou le concept) permet de désigner une généralité. Or, comme le révèle Rousseau dans ce texte, il est nécessaire, pour passer d’un objet particulier au concept, de recourir aux mots et à la syntaxe. Ainsi, penser, c’est d’abord parler. D’ailleurs, les idées générales ne peuvent s’introduire dans l’esprit qu’à l’aide des mots, et l’entendement ne les saisit que par des propositions. C’est une des raisons pour quoi les animaux ne sauraient se former de telles idées, ni jamais acquérir la perfectibilité qui en dépend. Quand un singe va sans hésiter d’une noix à l’autre, pense-t-on qu’il ait l’idée générale de cette sorte de fruit, et qu’il compare son archétype à ces deux individus ? Non sans doute ; mais la vue de l’une de ces noix rappelle à sa mémoire les sensations qu’il a reçues de l’autre, et ses yeux, modifiés d’une certaine manière, annoncent à son goût la modification qu’il va recevoir. Toute idée générale est purement intellectuelle ; pour peu que l’imagination s’en mêle, l’idée devient aussitôt particulière. Essayez de vous tracer l’image d’un arbre en général, jamais vous n’en viendrez à bout, malgré vous il faudra le voir petit ou grand, rare ou touffu, clair ou foncé, et s’il dépendait de vous de n’y voir que ce qui se trouve en tout arbre, cette image ne ressemblerait plus à un arbre. Les êtres purement abstraits se voient de même, ou ne se conçoivent que par le discours. La définition seule du triangle nous en donne la véritable idée : sitôt que vous en figurez un dans votre esprit, c’est un tel triangle et non pas un autre, et vous ne pouvez éviter d’en rendre les lignes sensibles ou le plan coloré. Il faut donc énoncer des propositions, il faut donc parler pour avoir des idées générales ; car sitôt que l’imagination s’arrête, l’esprit ne marche plus qu’à l’aide du discours.   L’art : Hegel, Esthétique I (1829) Dans cet essai consacré à l’art, Hegel s’attache d’abord à détruire un certain nombre de préjugés : ainsi, celui selon lequel la qualité de l’oeuvre d’art serait fonction de son degré d’imitation de la nature. Mais une oeuvre qui se contenterait de copier au mieux une réalité existante ne serait qu’une occupation futile : ce n’est pas là que se loge l’essence de la création artistique. C’est un vieux précepte que l’art doit imiter la nature ; on le trouve déjà chez Aristote. Quand la réflexion n’en était encore qu’à ses débuts, on pouvait bien se contenter d’une idée pareille ; elle contient toujours quelque chose qui se justifie par de bonnes raisons et qui se révélera à nous comme un des moments de l’idée ayant, dans son développement, sa place comme tant d’autres moments. D’après cette conception, le but essentiel de l’art consisterait dans l’imitation, autrement dit dans la reproduction habile d’objets tels qu’ils existent dans la nature, et la nécessité d’une pareille reproduction faite en conformité avec la nature serait une source de plaisirs. Cette définition assigne à l’art un but purement formel, celui de refaire une seconde fois, avec les moyens dont l’homme dispose, ce qui existe dans le monde extérieur, et tel qu’il y existe. Mais cette répétition peut apparaître comme une occupation oiseuse et superflue, car quel besoin avons-nous de revoir dans des tableaux ou sur la scène, des animaux, des paysages ou des événements humains que nous connaissons déjà pour les avoir vus ou pour les voir dans nos jardins, dans nos intérieurs ou, dans certains cas, pour en avoir entendu parler par des personnes de nos connaissances ? On peut même dire que ces efforts inutiles se réduisent à un jeu présomptueux dont les résultats restent toujours inférieurs à ce que nous offre la nature. C’est que l’art, limité dans ses moyens d’expression, ne peut produire que des illusions unilatérales, offrir l’apparence de la réalité à un seul de nos sens ; et, en fait, lorsqu’il ne va pas au-delà de la simple imitation, il est incapable de nous donner l’impression d’une réalité vivante ou d’une vie réelle : tout ce qu’il peut nous offrir, c’est une caricature de la vie (…) C’est ainsi que Zeuxis peignait des raisins qui avaient une apparence tellement naturelle que les pigeons s’y trompaient et venaient les picorer, et Praxeas peignit un rideau qui trompa un homme, le peintre lui-même. On connaît plus d’une de ces histoires d’illusions créées par l’art. On parle dans ces cas, d’un triomphe de l’art. (…)On peut dire d’une façon générale qu’en voulant rivaliser avec la nature par l’imitation, l’art restera toujours au-dessous de la nature et pourra être comparé à un ver faisant des efforts pour égaler un éléphant. Il y a des hommes qui savent imiter les trilles du rossignol, et Kant a dit à ce propos que, dès que nous nous apercevons que c’est un homme qui chante ainsi, et non un rossignol, nous trouvons ce chant insipide. Nous y voyons un simple artifice, non une libre production de la nature ou une oeuvre d’art. Le chant du rossignol nous réjouit naturellement, parce que nous entendons un animal, dans son inconscience naturelle, émettre des sons qui ressemblent à l’expression de sentiments humains. Ce qui nous réjouit donc ici c’est l’imitation de l’humain par la nature.   Le travail et la technique : Marx, Le Capital , Livre I, 3e section, chapitre 7, 1 (1867) Loin que le travail permette de réaliser les potentialités de l’individu, il a, du fait de l’avènement de l’industrie, renoué avec son sens originaire d’instrument de torture. La conséquence en est une perversion du travail, qui n’est plus un but ni une expression de soi mais une aliénation. Marx montre que le travailleur est devenu étranger à lui-même, plus proche de l’animalité que de l’humanité. La force de travail est donc une marchandise que son possesseur, le salarié, vend au capital. Pourquoi la vend-il ? Pour vivre.Mais la manifestation de la force de travail, le travail, est l’activité vitale propre à l’ouvrier, sa façon à lui de manifester sa vie. Et c’est cette activité vitale qu’il vend à un tiers pour s’assurer les moyens de subsistance nécessaires. Son activité vitale n’est donc pour lui qu’un moyen de pouvoir exister. Il travaille pour vivre. Pour lui-même, le travail n’est pas une partie de sa vie, il est plutôt un sacrifice de sa vie. C’est une marchandise qu’il adjuge à un tiers. C’est pourquoi le produit de son activité n’est pas non plus le but de son activité. Ce qu’il produit pour lui-même, ce n’est pas la soie qu’il tisse, ce n’est pas l’or qu’il extrait du puits, ce n’est pas le palais qu’il bâtit. Ce qu’il produit pour lui-même, c’est le salaire, et la soie, l’or, le palais se réduisent pour lui à une quantité déterminée de moyens de subsistance, peut-être à un tricot de coton, à de la menue monnaie et à un logement dans une cave. Et l’ouvrier qui, douze heures durant, tisse, file, perce, tourne, bâtit, manie la pelle, taille la pierre, la transporte, etc., regarde-t-il ces douze heures de tissage, de filage, de perçage, de travail au tour ou de maçonnerie, de maniement de la pelle ou de taille de la pierre comme une manifestation de sa vie, comme sa vie ? Bien au contraire. La vie commence pour lui où cesse l’activité, à table, au bistrot, au lit. Par contre, les douze heures de travail n’ont nullement pour lui le sens de tisser, de filer, de percer, etc., mais celui de gagner ce qui lui permet d’aller à table, au bistrot, au lit. Si le ver à soie tissait pour subvenir à son existence de chenille, il serait un salarié achevé.   La religion : Nietzsche, L’Antéchrist (1896) Dans ce texte extrêmement critique, Nietzsche fait du christianisme un tissu de mensonges, une pure fiction que l’homme a créée pour échapper à la souffrance que la réalité lui fait subir. Récusant donc toute validité à la religion ou la morale chrétienne, Nietzsche condamne par-là l’homme lui-même, auteur de ces inventions parce qu’il a été incapable de vivre autrement que dans le ressentiment et la frustration. Dans le christianisme, ni la morale, ni la religion ne touchent à un point quelconque de la réalité. Rien que des causes imaginaires (« Dieu », « l’âme », « moi », « esprit », « libre arbitre » – ou même l’arbitre qui n’est « pas libre ») ; rien que des effets imaginaires (« le péché », « le salut », « la grâce », « l’expiation », « le pardon des péchés »). Une relation imaginaire entre les êtres (« Dieu », « les esprits », « l’âme ») ; une imaginaire science naturelle (anthropocentrique ; un manque absolu du concept des causes naturelles) ; une psychologie imaginaire (rien que des malentendus, des interprétations de sentiments généraux agréables ou désagréables, tel que les états du grand sympathique, à l’aide du langage des signes d’idiosyncrasies religieuses et morales) – (« le repentir », « la voix de la conscience », « la tentation du diable », « la présence de Dieu ») ; une téléologie imaginaire (« le règne de Dieu », « le jugement dernier », « la vie éternelle »).Ce monde de fictions pures se distingue très à son désavantage du monde des rêves, puisque celui-ci reflète la réalité, tandis que l’autre la fausse, la déprécie et la nie. Après que le concept « nature » fut inventé en tant qu’opposition au concept « Dieu », « naturel » devint équivalent à « méprisable », – tout ce monde de fictions a sa racine dans la haine contre le naturel (- la réalité ! -). Elle est l’expression du profond déplaisir que cause la réalité… Mais ceci explique tout. Qui donc a seul des raisons pour sortir de la réalité par un mensonge  ? Celui qu’elle fait souffrir . Mais souffrir, dans ce cas-là, signifie être soi-même une réalité manquée… La prépondérance du sentiment de peine sur le sentiment de plaisir est la cause de cette religion, de cette morale fictive : un tel excès donne la formule pour la décadence …   L’histoire : Ricoeur, Histoire et vérité (1955) L’opinion commune veut que les faits historiques soient donnés au lecteur avec la plus grande objectivité possible. Dans cet extrait, Ricoeur, sans s’opposer à cette idée, révèle que l’objectivité de l’histoire se distingue toutefois de celle des sciences dites « dures » : elle est en effet une objectivité sous-tendue par la subjectivité de l’historien et par celle du lecteur – par-là, elle devient véritablement une « histoire des hommes » ; sans cela, elle n’est qu’assemblage de faits. Nous attendons de l’histoire une certaine objectivité, l’objectivité qui lui convient : c’est de là que nous devons partir et non de l’autre terme. Or qu’attendons-nous sous ce titre ? L’objectivité ici doit être prise en son sens épistémologique strict : est objectif ce que la pensée méthodique a élaboré, mis en ordre, compris et ce qu’elle peut ainsi faire comprendre. Cela est vrai des sciences physiques, des sciences biologiques ; cela est vrai aussi de l’histoire. Nous attendons par conséquent de l’histoire qu’elle fasse accéder le passé des sociétés humaines à cette dignité de l’objectivité. Cela ne veut pas dire que cette objectivité soit celle de la physique ou de la biologie : il y a autant de niveaux d’objectivité qu’il y a de comportements méthodiques. Nous attendons donc que l’histoire ajoute une nouvelle province à l’empire varié de l’objectivité. Cette attente en implique une autre : nous attendons de l’historien une certaine qualité de subjectivité, non pas une subjectivité quelconque, mais une subjectivité qui soit précisément appropriée à l’objectivité qui convient à l’histoire. Il s’agit donc d’une subjectivité impliquée, impliquée par l’objectivité attendue. Nous pressentons par conséquent qu’il y a une bonne et une mauvaise subjectivité, et nous attendons un départage de la bonne et de la mauvaise subjectivité, par l’exercice même du métier d’historien.Ce n’est pas tout : sous le titre de subjectivité nous attendons quelque chose de plus grave que la bonne subjectivité de l’historien ; nous attendons que l’histoire soit une histoire des hommes et que cette histoire des hommes aide le lecteur, instruit par l’histoire des historiens, à édifier une subjectivité de haut rang, la subjectivité non seulement de moi-même, mais de l’homme. Mais cet intérêt, cette attente d’un passage – par l’histoire – de moi à l’homme, n’est plus exactement épistémologique, mais proprement philosophique : car c’est bien une subjectivité de réflexion que nous attendons de la lecture et de la méditation des oeuvres d’historien ; cet intérêt ne concerne déjà plus l’historien qui écrit l’histoire, mais le lecteur – singulièrement le lecteur philosophique -, le lecteur en qui s’achève tout livre, toute oeuvre, à ses risques et périls. 3.  La raison et le réel   Théorie et expérience : Claude Bernard, Introduction à l’étude de la médecine expérimentale (1865) Père de la médecine expérimentale, Claude Bernard montre le lien nécessaire qui unit la théorie à l’expérience. Une expérience sans théorie est aveugle puisqu’elle ne sait pas ce qu’elle doit voir. Une théorie sans expérience reste sourde, puisqu’elle ne se met pas à l’écoute de la réalité. Le savant complet est celui qui embrasse à la fois la théorie et la pratique expérimentale. 1º Il constate un fait ; 2º à propos de ce fait, une idée naît dans son esprit ; 3º en vue de cette idée, il raisonne, institue une expérience, en imagine et en réalise les conditions matérielles. 4º De cette expérience résultent de nouveaux phénomènes qu’il faut observer, et ainsi de suite. L’esprit du savant se trouve en quelque sorte toujours placé entre deux observations : l’une qui sert de point de départ au raisonnement, et l’autre qui lui sert de conclusion. (…)L’observateur et l’expérimentateur répondraient donc à des phases différentes de la recherche expérimentale. L’observateur ne raisonne plus, il constate ; l’expérimentateur, au contraire, raisonne et se fonde sur les faits acquis pour en imaginer et en provoquer rationnellement d’autres. Mais, si l’on peut, dans la théorie et d’une manière abstraite, distinguer l’observateur de l’expérimentateur, il semble impossible dans la pratique de les séparer, puisque nous voyons que nécessairement le même investigateur est alternativement observateur et expérimentateur. (…) On voit donc que tous les termes de la méthode expérimentale sont solidaires les uns des autres. Les faits sont les matériaux nécessaires ; mais c’est leur mise en oeuvre par le raisonnement expérimental, c’est-à-dire la théorie, qui constitue et édifie véritablement la science. L’idée formulée par les faits représente la science. L’hypothèse expérimentale n’est que l’idée scientifique, préconçue ou anticipée. La théorie n’est que l’idée scientifique contrôlée par l’expérience.   La démonstration : Pascal, De l’esprit géométrique (1658) Les expériences et théories scientifiques de Pascal sont encore reconnues aujourd’hui. Mais cette aura ne doit pas faire oublier l’humilité qui devrait accompagner tout esprit scientifique ; en effet, il est impossible de tout démontrer – telle est la thèse de Pascal. Le modèle mathématique est un langage formel qui ne peut rendre raison des principes sur lesquels pourtant il se fonde. Ces choses étant bien entendues, je reviens à l’explication du véritable ordre, qui consiste, comme je disais, à tout définir et à tout prouver. Certainement cette méthode serait belle, mais elle est absolument impossible : car il est évident que les premiers termes qu’on voudrait définir, en supposeraient de précédents pour servir à leur explication, et que de même les premières propositions qu’on voudrait prouver en supposeraient d’autres qui les précédassent ; et ainsi il est clair qu’on n’arriverait jamais aux premières. Aussi, en poussant les recherches de plus en plus, on arrive nécessairement à des mots primitifs qu’on ne peut plus définir, et à des principes si clairs qu’on n’en trouve plus qui le soient davantage pour servir à leur preuve. D’où il paraît que les hommes sont dans une impuissance naturelle et immuable de traiter quelque science que ce soit dans un ordre absolument accompli. Mais il ne s’ensuit pas de là qu’on doive abandonner toute sorte d’ordre. Car il y en a un, et c’est celui de la géométrie, qui est à la vérité inférieur en ce qu’il est moins convaincant, mais non pas en ce qu’il est moins certain. Il ne définit pas tout et ne prouve pas tout, et c’est en cela qu’il lui cède ; mais il ne suppose que des choses claires et constantes par la lumière naturelle, et c’est pourquoi il est parfaitement véritable, la nature le soutenant au défaut du discours. Cet ordre, le plus parfait entre les hommes, consiste non pas à tout définir ou à tout démontrer, ni aussi à ne rien définir ou à ne rien démontrer, mais à se tenir dans ce milieu de ne point définir les choses claires et entendues de tous les hommes, et de définir toutes les autres ; et de ne point prouver toutes les choses connues des hommes, et de prouver toutes les autres. Contre cet ordre pèchent également ceux qui entreprennent de tout définir et de tout prouver et ceux qui négligent de le faire dans les choses qui ne sont pas évidentes d’elles-mêmes.  L’interprétation : Dilthey, Introduction à l’étude des sciences humaines (1883) La connaissance scientifique de la nature se fonde sur l’explication, c’est-à-dire la mise au jour des causes qui produisent un effet. Cependant, l’application de ce type de savoir, affirme Dilthey, n’est pas adaptée au monde humain. Afin de comprendre les individus, il faut chercher à interpréter les actes de l’esprit, donner du sens à leurs actions et à leurs pensées. Les concordances que nous pouvons enregistrer dans le domaine social restent quant au nombre, à la signification et à la précision, bien loin derrière celles que nous constatons dans la nature en partant de la base solide des rapports dans l’espace et des propriétés du mouvement. Le mouvement des astres – non seulement dans notre système planétaire, mais même celui d’étoiles dont la lumière ne parvient à nos yeux qu’après des années et des années – se révèle soumis à la loi, pourtant bien simple, de la gravitation, et nous pouvons le calculer longtemps à l’avance. Les sciences sociales ne pourraient apporter à l’intelligence de pareilles satisfactions. Les difficultés que pose la connaissance d’une simple entité psychique se trouvent multipliées par la variété infinie, les caractères singuliers de ces entités, telles qu’elles agissent en commun dans la société, de même que par la complexité des conditions naturelles auxquelles leur action est liée, par l’addition des réactions qui s’amassent au cours de nombreuses générations – addition qui nous empêche de déduire directement de la nature humaine, telle que nous la connaissons aujourd’hui, les traits qui étaient propres à des temps antérieurs, ou de déduire logiquement l’état actuel de la société de certains caractères généraux de la nature humaine. Pourtant ces difficultés se trouvent plus que compensées par une constatation de fait : moi qui, pour ainsi dire, vis du dedans ma propre vie, moi qui me connais, moi qui suis un élément de l’organisme social, je sais que les autres éléments de cet organisme sont du même type que moi et que, par conséquent, je puis me représenter leur vie interne. Je suis à même de comprendre la vie de la société.   Le vivant : Kant, Critique de la faculté de juger (1790) Cherchant à déterminer la spécificité de l’être vivant, Kant l’oppose dans ce texte à la machine : contrairement à cette dernière, le vivant ne jouit pas seulement d’une force motrice mais aussi d’une « force formatrice ». D’autre part, le vivant se distingue également de l’art humain, dans la mesure où il s’organise de lui-même, sans intervention d’aucun artiste extérieur. Dans une montre une partie est l’instrument du mouvement des autres, mais un rouage n’est pas la cause efficiente de la production d’un autre rouage ; certes une partie existe pour une autre, mais ce n’est pas par cette autre partie qu’elle existe. C’est pourquoi la cause productrice de celles-ci et de leur forme n’est pas contenue dans la nature (de cette matière), mais en dehors d’elle dans un être, qui d’après des idées peut réaliser un tout possible par sa causalité. C’est pourquoi aussi dans une montre un rouage ne peut en produire un autre et encore moins une montre d’autres montres, en sorte qu’à cet effet elle utiliserait (elle organiserait) d’autres matières ; c’est pourquoi elle ne remplace pas d’elle-même les parties, qui lui ont été ôtées, ni ne corrige leurs défauts dans la première formation par l’intervention des autres parties, ou se répare elle-même, lorsqu’elle est déréglée : or tout cela nous pouvons en revanche l’attendre de la nature organisée. Ainsi un être organisé n’est pas simplement machine, car la machine possède uniquement une force motrice  ; mais l’être organisé possède en soi une force formatrice qu’il communique aux matériaux, qui ne la possèdent pas (il les organise) : il s’agit ainsi d’une force formatrice qui se propage et qui ne peut pas être expliquée par la seule faculté de mouvoir (le mécanisme).On dit trop peu de la nature et de son pouvoir pour des productions organisées, quand on l’appelle un analogon de l’art ; on imagine alors l’artiste (un être raisonnable) en dehors d’elle. Elle s’organise au contraire elle-même dans chaque espèce de ses produits organisés ; dans l’ensemble, il est vrai, d’après un même modèle, mais avec les modifications convenables exigées pour la conservation de soi-même suivant les circonstances. (…) Pour parler en toute rigueur, l’organisation de la nature n’offre rien d’analogue avec une causalité quelconque à nous connue. La beauté de la nature peut à juste titre être nommée un analogon de l’art parce qu’elle n’est attribuée aux objets qu’en relation à la réflexion sur l’ intuition externe de ceux-ci, c’est-à-dire seulement en raison de la forme de leur surface. Mais la perfection naturelle interne , celle que possèdent les choses, qui ne sont possibles que comme fins naturelles et qui pour cette raison s’appellent êtres organisés, ne peut être pensée et expliquée par aucune analogie avec un pouvoir physique quelconque connu de nous, c’est-à-dire un pouvoir naturel, et puisque nous apparentons nous-mêmes à la nature au sens large, elle ne peut même pas l’être d’après une analogie exactement proportionnée avec l’art humain.   La matière et l’esprit : Merleau-Ponty, Signes (1960) Merleau-Ponty expose dans cet extrait la révolution qui s’est opérée au XXe siècle dans la conception du corps et surtout dans la relation entre corps et esprit. Souscrivant à cette idée selon laquelle le corps n’est pas la « prison » de l’âme (Platon), Merleau-Ponty met à bas le dualisme et propose pour dire l’entrelacs de la matière et de l’esprit la notion de « chair ». Notre siècle a effacé la ligne de partage du « corps » et de l’ »esprit » et voit la vie humaine comme spirituelle et corporelle de part en part, toujours appuyée au corps, toujours intéressée, jusque dans ses modes les plus charnels, au rapport des personnes. Pour beaucoup de penseurs, à la fin du XIXe siècle, le corps, c’était un morceau de matière, un faisceau de mécanismes. Le XXe siècle a restauré et approfondi la notion de la chair, c’est-à-dire du corps animé.Il serait intéressant de suivre, dans la psychanalyse par exemple, le passage d’une conception du corps qui était initialement, chez Freud, celle des médecins du XIXe siècle, à la notion moderne du corps vécu. Au point de départ, la psychanalyse ne prenait-elle pas la suite des philosophies mécanistes du corps, – et n’est-ce pas ainsi qu’on la comprend encore souvent ? le système freudien n’explique-t-il pas les conduites les plus complexes et les plus élaborées de l’homme adulte par l’instinct et en particulier l’instinct sexuel, – par les conditions physiologiques – par une composition de forces qui est hors des prises de notre conscience ou qui même s’est réalisée une fois pour toutes dans l’enfance, avant l’âge du contrôle rationnel et du rapport proprement humain avec la culture et avec autrui ? Telle était peut-être l’apparence dans les premiers travaux de Freud, et pour un lecteur pressé ; mais à mesure que la psychanalyse, chez lui-même et chez ses successeurs, rectifie ces notions initiales au contact de l’expérience clinique, on voit paraître une notion nouvelle du corps qui était appelée par les notions de départ.   La vérité : Bachelard, La Formation de l’esprit scientifique (1938) Énoncer une opinion est généralement reconnu comme un signe de savoir et d’engagement. Or, Bachelard réfute toute validité à l’opinion en matière de science : il affirme qu’il faut même la combattre à chaque instant afin d’approcher une quelconque vérité. Contrairement à l’opinion qui affirme, la science doit, pour être elle-même, interroger. La science, dans son besoin d’achèvement comme dans son principe, s’oppose absolument à l’opinion. S’il lui arrive, sur un point particulier, de légitimer l’opinion, c’est pour d’autres raisons que celles qui fondent l’opinion ; de sorte que l’opinion a, en droit, toujours tort. L’opinion pense mal ; elle ne pense pas : elle traduit des besoins en connaissances. En désignant les objets par leur utilité, elle s’interdit de les connaître. On ne peut rien fonder sur l’opinion : il faut d’abord la détruire. Elle est le premier obstacle à surmonter. Il ne suffirait pas par exemple, de la rectifier sur des points particuliers, en maintenant, comme une sorte de morale provisoire, une connaissance vulgaire provisoire. L’esprit scientifique nous interdit d’avoir une opinion sur des questions que nous ne comprenons pas, sur des questions que nous ne savons pas formuler clairement. Avant tout, il faut savoir poser des problèmes. Et quoi qu’on dise, dans la vie scientifique, les problèmes ne se posent pas d’eux-mêmes. C’est précisément ce sens du problème qui donne la marque du véritable esprit scientifique. Pour un esprit scientifique, toute connaissance est une réponse à une question. S’il n’y a pas eu de question, il ne peut y avoir connaissance scientifique. Rien ne va de soi. Rien n’est donné. Tout est construit.4.  La politique  La société : Hobbes, Du Citoyen (1642) Si la société peut être l’objet de critiques hâtives, c’est qu’on oublie les bienfaits primordiaux qu’elle apporte. Selon Hobbes, hors de la société, la liberté reste stérile puisqu’elle ne peut se déployer au sein d’une violence diffuse. Il est vrai que hors de la société civile chacun jouit d’une liberté très entière, mais qui est infructueuse, parce que comme elle donne le privilège de faire tout ce que bon nous semble, aussi elle laisse aux autres la puissance de nous faire souffrir tout ce qu’il leur plaît. Mais dans le gouvernement d’un État bien établi, chaque particulier ne se réserve qu’autant de liberté qu’il lui en faut pour vivre commodément, et en une parfaite tranquillité, comme on n’en ôte aux autres que ce dont ils seraient à craindre. Hors de la société, chacun a tellement droit sur toutes choses, qu’il ne s’en peut prévaloir et n’a la possession d’aucune ; mais dans la république, chacun jouit paisiblement de son droit particulier. Hors de la société civile, ce n’est qu’un continuel brigandage et on est exposé à la violence de tous ceux qui voudront nous ôter les biens et la vie ; mais dans l’État, cette puissance n’appartient qu’à un seul. Hors du commerce des hommes, nous n’avons que nos propres forces qui nous servent de protection, mais dans une ville, nous recevons le secours de tous nos concitoyens. Hors de la société, l’adresse et l’industrie sont de nul fruit : mais dans un État, rien ne manque à ceux qui s’évertuent. Enfin, hors de la société civile, les passions règnent, la guerre est éternelle, la pauvreté est insurmontable, la crainte ne nous abandonne jamais, les horreurs de la solitude nous persécutent, la misère nous accable, la barbarie, l’ignorance et la brutalité nous ôtent toutes les douceurs de la vie ; mais dans l’ordre du gouvernement, la raison exerce son empire, la paix revient au monde, la sûreté publique est rétablie, les richesses abondent, on goûte les charmes de la conversation, on voit ressusciter les arts, fleurir les sciences, la bienséance est rendue à toutes nos actions et nous ne vivons plus ignorants des lois de l’amitié.   La justice et le droit : Rousseau, Du Contrat social (1762) « La raison du plus fort est toujours la meilleure » dit La Fontaine dans Le Loup et l’Agneau. Reprenant l’expression célèbre de « droit du plus fort », Rousseau la détruit en révélant son inanité : le plus fort n’a nul besoin d’un droit qui le protégerait, et celui qui veut associer le droit à la force ne montre rien d’autre que sa précarité. Le plus fort n’est jamais assez fort pour être toujours le maître, s’il ne transforme sa force en droit, et l’obéissance en devoir. De là le droit du plus fort ; droit pris ironiquement en apparence, et réellement établi en principe. Mais ne nous expliquera-t-on jamais ce mot ? La force est une puissance physique ; je ne vois point quelle moralité peut résulter de ses effets. Céder à la force est un acte de nécessité, non de volonté ; c’est tout au plus un acte de prudence. En quel sens pourra-ce être un devoir ? Supposons un moment ce prétendu droit. Je dis qu’il n’en résulte qu’un galimatias inexplicable ; car, sitôt que c’est la force qui fait le droit, l’effet change avec la cause : toute force qui surmonte la première succède à son droit. Sitôt qu’on peut désobéir impunément, on le peut légitimement ; et, puisque le plus fort a toujours raison, il ne s’agit que de faire en sorte qu’on soit le plus fort. Or, qu’est-ce qu’un droit qui périt quand la force cesse ? S’il faut obéir par force, on n’a pas besoin d’obéir par devoir ; et si l’on n’est plus forcé d’obéir, on n’y est plus obligé. On voit donc que ce mot de droit n’ajoute rien à la force ; il ne signifie ici rien du tout. Obéissez aux puissances. Si cela veut dire : Cédez à la force, le précepte est bon, mais superflu ; je réponds qu’il ne sera jamais violé. Toute puissance vient de Dieu, je l’avoue ; mais toute maladie en vient aussi : est-ce à dire qu’il soit défendu d’appeler le médecin ? Qu’un brigand me surprenne au coin d’un bois, non seulement il faut par force donner sa bourse ; mais, quand je pourrais la soustraire, suis-je en conscience obligé de la donner ? Car, enfin, le pistolet qu’il tient est une puissance. Convenons donc que force ne fait pas droit, et qu’on n’est obligé d’obéir qu’aux puissances légitimes.  L’État : Montesquieu, De l’Esprit des Lois , Livre III, chapitre 9 (1748) S’interrogeant sur les différents types de gouvernement, Montesquieu présente ici le despotisme et cherche à en analyser le fonctionnement. En montrant que la crainte est le principe même du régime despotique, il souligne à la fois sa force et sa fragilité, et prouve (s’opposant ainsi par avance aux philosophes des Lumières) qu’il ne saurait exister de « despotisme éclairé ». Comme il faut de la vertu dans une république, et dans une monarchie, de l’honneur, il faut de la CRAINTE dans un gouvernement despotique : pour la vertu, elle n’y est point nécessaire, et l’honneur y serait dangereux. Le pouvoir immense du prince y passe tout entier à ceux à qui il le confie. Des gens capables de s’estimer beaucoup eux-mêmes seraient en état d’y faire des révolutions. Il faut donc que la crainte y abatte tous les courages, et y éteigne jusqu’au moindre sentiment d’ambition. Un gouvernement modéré peut, tant qu’il veut, et sans péril, relâcher ses ressorts. Il se maintient par ses lois et par sa force même. Mais lorsque, dans le gouvernement despotique, le prince cesse un moment de lever le bras ; quand il ne peut pas anéantir à l’instant ceux qui ont les premières places, tout est perdu : car le ressort du gouvernement, qui est la crainte, n’y étant plus, le peuple n’a plus de protecteur. C’est apparemment dans ce sens que des cadis ont soutenu que le grand seigneur n’était point obligé de tenir sa parole ou son serment, lorsqu’il bornait par là son autorité.Il faut que le peuple soit jugé par les lois, et les grands par la fantaisie du prince ; que la tête du dernier sujet soit en sûreté, et celle des bachas toujours exposée. On ne peut parler sans frémir de ces gouvernements monstrueux. Le sophi de Perse, détrôné de nos jours par Mirivéis, vit le gouvernement périr avant la conquête, parce qu’il n’avait pas versé assez de sang.L’histoire nous dit que les horribles cruautés de Domitien effrayèrent les gouverneurs, au point que le peuple se rétablit un peu sous son règne. C’est ainsi qu’un torrent, qui ravage tout d’un côté, laisse de l’autre des campagnes où l’oeil voit de loin quelques prairies. 5. La morale  La liberté : Sartre, Cahiers pour une morale (1947) Sartre connaît dès 1939 un succès à la fois philosophique et littéraire : le roman La Nausée, tout comme l’essai L’Être et le néant, l’imposent rapidement comme une figure essentielle du XXe siècle. Dans cet extrait, il montre par un exemple choquant que rien de ce qui advient à l’homme ne lui ôte sa liberté ; s’opposant radicalement au déterminisme tel qu’il est entendu traditionnellement, l’existentialisme pose en effet l’essence de l’homme comme liberté inaliénable. Me voilà tuberculeux par exemple. Ici apparaît la malédiction (et la grandeur). Cette maladie, qui m’infecte, m’affaiblit, me change, limite brusquement mes possibilités et mes horizons. J’étais acteur ou sportif ; avec mes deux pneumos, je ne puis plus l’être. Ainsi négativement je suis déchargé de toute responsabilité touchant ces possibilités que le cours du monde vient de m’ôter. C’est ce que le langage populaire nomme être diminué. Et ce mot semble recouvrir une image correcte : j’étais un bouquet de possibilités, on ôte quelques fleurs, le bouquet reste dans le vase, diminué, réduit à quelques éléments.Mais en réalité il n’en est rien : cette image est mécanique. La situation nouvelle quoique venue du dehors doit être vécue, c’est-à-dire assumée, dans un dépassement. Il est vrai de dire qu’on m’ôte ces possibilités mais il est aussi vrai de dire que j’y renonce ou que je m’y cramponne ou que je ne veux pas voir qu’elles me sont ôtées ou que je me soumets à un régime systématique pour les reconquérir. En un mot ces possibilités sont non pas supprimées mais remplacées par un choix d’attitudes possibles envers la disparition de ces possibilités. Et d’autre part surgissent avec mon état nouveau des possibilités nouvelles : possibilités à l’égard de ma maladie (être un bon ou un mauvais malade), possibilités vis-à-vis de ma condition (gagner tout de même ma vie, etc.), un malade ne possède ni plus ni moins de possibilités, qu’un bien portant ; il a son éventail de possibles comme l’autre et il a à décider sur sa situation, c’est-à-dire à assumer sa condition de malade pour la dépasser (vers la guérison ou vers une vie humaine de malade avec de nouveaux horizons). Autrement dit, la maladie est une condition à l’intérieur de laquelle l’homme est de nouveau libre et sans excuses. Il a à prendre la responsabilité de sa maladie. Sa maladie est une excuse pour ne pas réaliser ses possibilités de non-malade mais elle n’en est pas une pour ses possibilités de malade qui sont aussi nombreuses… Ainsi suis-je sans repos : toujours transformé, miné, laminé, ruiné du dehors et toujours libre, toujours obligé de reprendre à mon compte, de prendre la responsabilité de ce dont je ne suis pas responsable. Totalement déterminé et totalement libre. Obligé d’assumer ce déterminisme pour poser au-delà les buts de ma liberté, de faire de ce déterminisme un engagement de plus.   Le devoir : Kant, Fondements de la métaphysique des moeurs , 1785 Penser qu’on accomplit un devoir quand on escompte en tirer du mérite est une posture commune – que Kant récuse pourtant. En effet, agir en vue d’un quelconque mérite, c’est ne plus agir simplement par devoir, de manière désintéressée, mais pour une récompense : Kant explique ainsi la tendance des moralistes (du xviie siècle par exemple) à nier l’existence d’actions effectuées selon le pur devoir. Si nous avons tiré jusqu’ici notre concept du devoir de l’usage commun de la raison pratique, il n’en faut nullement conclure que nous l’ayons traité comme un concept empirique. Loin de là, si nous appliquons notre attention à l’expérience de la conduite des hommes, nous nous trouvons en présence de plaintes continuelles et, nous l’avouons nous-mêmes, légitimes, sur ce fait qu’il n’y a point d’exemples certains que l’on puisse rapporter de l’intention d’agir par devoir, que mainte action peut être réalisée conformément à ce que le devoir ordonne, sans qu’il cesse pour cela d’être encore douteux qu’elle soit réalisée par devoir et ainsi qu’elle ait une valeur morale. Voilà pourquoi il y a eu en tout temps des philosophes qui ont absolument nié la réalité de cette intention dans les actions humaines et qui ont tout attribué à l’amour-propre plus ou moins raffiné ; ils ne mettaient pas en doute pour cela la justesse du concept de moralité ; ils parlaient au contraire avec une sincère affliction de l’infirmité et de l’impureté de la nature humaine, assez noble, il est vrai, suivant eux, pour faire sa règle d’une idée si digne de respect, mais en même temps trop faible pour la suivre, n’usant de la raison qui devrait servir à lui donner sa foi que pour prendre souci de l’intérêt des inclinations, soit de quelques-unes d’entre elles, soit, si l’on met les choses au mieux, de toutes, en les conciliant entre elles le mieux possible.  Le bonheur : Épictète (vers 50 – vers 130), Manuel Attendre que le bonheur vienne de l’extérieur, c’est tout faire pour se rendre malheureux. À l’inverse, comme l’affirme ici Épictète, c’est en étant maître de soi sans vouloir ce qui nous échappe que nous pouvons trouver le bonheur Manuel I 1. - Parmi les choses qui existent, certaines dépendent de nous, d’autres non. De nous, dépendent la pensée, l’impulsion, le désir, l’aversion, bref, tout ce en quoi c’est nous qui agissons ; ne dépendent pas de nous le corps, l’argent, la réputation, les charges publiques, tout ce en quoi ce n’est pas nous qui agissons. 2. - Ce qui dépend de nous est libre naturellement, ne connaît ni obstacles ni entraves ; ce qui n’en dépend pas est faible, esclave, exposé aux obstacles et nous est étranger. 3. - Donc, rappelle-toi que si tu tiens pour libre ce qui est naturellement esclave et pour un bien propre ce qui t’est étranger, tu vivras contrarié, chagriné, tourmenté ; tu en voudras aux hommes comme aux dieux ; mais si tu ne juges tien que ce qui l’est vraiment – et tout le reste étranger -, jamais personne ne saura te contraindre ni te barrer la route ; tu ne t’en prendras à personne, n’accuseras personne, ne feras jamais rien contre ton gré, personne ne pourra te faire de mal et tu n’auras pas d’ennemi puisqu’on ne t’obligera jamais à rien qui pour toi soit mauvais.Manuel V Ce qui trouble les hommes, ce ne sont pas les choses, ce sont les jugements qu’ils portent sur les choses. Ainsi la mort n’a rien de redoutable, autrement elle aurait paru telle à Socrate ; mais le jugement que la mort est redoutable, c’est là ce qui est redoutable. Ainsi donc quand nous sommes contrariés, troublés ou peinés, n’en accusons jamais d’autres que nous-même, c’est-à-dire nos propres jugements. Il est d’un ignorant de s’en prendre à d’autres de ses malheurs ; il est d’un homme qui commence à s’instruire de s’en prendre à lui-même ; il est d’un homme complètement instruit de ne s’en prendre ni à un autre ni à lui-même. Copyright Rue des Ecoles  

Read more

Test du LG G2 Mini : que vaut le petit frère…

Frandroid

Dévoilé courant février au MWC, le LG G2 Mini. Vous est une version miniature du LG G2 qui avait su faire grand bruit pendant de longues semaines à coups de rumeurs. Finalement, il s’agit d’un smartphone avec des caractéristiques orientée vers l’entrée de gamme, mais avec un positionnement tarifaire de milieu de gamme.Au vu de sa fiche technique, le tarif du LG G2 Mini, fixé à 299 euros, paraît assez élevé. D’un autre côté, le LG G2 Mini dispose d’un bon nombre d’atouts, puisqu’il est équipé de la dernière version d’Android (4.4.2 KitKat) , de la compatibilité LTE 4G de catégorie 4 jusqu’à 150 Mbps et l’arrivée d’un emplacement micro-SD qui est absent sur son grand frère le LG G2. Voyant qu’il y a tout juste 4 Go d’accessibles sur les 8, il était plus que nécessaire de lui ajouter un lecteur de micro-SD. Bonne nouvelle, il vous sera possible de déplacer les applications sur la carte mémoire en cas de mémoire faible.Les composants matériels adoptés par le Coréen sont proches de ce que nous pourrions retrouver sur un Galaxy S4 mini, par exemple (350 à 400 euros à sa commercialisation). Le G2 mini s’en différencie par son écran et son processeur. Là où le Galaxy S4 mini arborait un double-coeur Qualcomm S400 « MSM8930? à 1,7 GHz (en Krait 200), nous retrouvons un processeur poussé à 1,2 GHz de Qualcomm, mais qui se compose de quatre coeur (en Cortex-A7, au lieu du Krait 200). Les puces graphiques sont identiques, seule la cadence évolue de 400 à 450 MHz sur le G2 Mini (soit un gain de 50 MHz supplémentaires). Ce n’est certes pas énorme, mais cela permettra de profiter d’une meilleure expérience utilisateur avec les tâches qui tirent parti des ressources du GPU (incluant les applications, certains jeux et fonctionnalités) pour fonctionner.Quant à l’autonomie, LG a mis le paquet avec une batterie de 2440 mAh. Avec une architecture Cortex-A7 et un écran qHD, nous avons certainement le couple parfait pour une très bonne autonomie. Encore faut-il que l’optimisation logicielle suive. À première vue, ce nouveau G2 Mini semble tenir ses promesses. Rendez-vous dans la suite du test pour en découvrir davantage sur ce nouveau milieu de gamme signé LG. Le packagingDans la boîte, vous pourrez y retrouver : * un smartphone LG G2 Mini * une batterie de 2440 mAh (déjà installée) * un kit piéton avec des écouteurs intra-auriculaires * un câble micro-USB USB * un adapteur secteur (compatible FR) * diverses notices (guide d’utilisation rapide, etc.) Les caractéristiquesModèleLG G2 Mini (LG-D820)VersionAndroid 4.4.2 « KitKat » avec Optimus UI de LGÉcran4,7 poucesTechnologieIPS LCDDéfinitionqHD (560 x 940 pixels)Résolution~ 234 pixels par pouceProtection contre les chocs et les rayuresOui (Gorilla Glass 2)SoCSnapdragon 400 « MSM8926″ArchitectureARM Cortex-A7Nombre de coeur4 (quadri-coeur)Vitesse du processeur1,2 GHz (1209 MHz)Gravures28 nanomètresPuce graphique (GPU)Adreno 305 (à 450 Mhz)Mémoire vive (RAM)1 GoMémoire interne (ROM)8 Go (dont 3,87 Go accessibles)Support micro SD-HCOui (jusqu’à 32 Go)Camérasdos : 8 millions de pixels avec flash LED face : 1,3 million de pixel avec flash LEDQualité vidéoarrière : FHD 1080p avant : HD 720pCarte SIM1 emplacement SIM : – micro-SIM (2G/3G/4G)Wi-FiOui (a/b/g/n)Bluetooth4.0 avec A2DPRéseauxGSM (2G) : 850/900/1800/1900 HSDPA (3G) : 850/900/1900/2100 LTE (4G) : 800/900/1800/2100/2600Vitesse internetJusqu’à 150 Mbps (LTE de catégorie 4)GPSOui (avec Assisted-GPS) + GLONASSNFC (Near Field Communication)OuiCapteursAccéléromètre, Proximité, Luminosité, OrientationPort micro-USB – HDMIOui (2.0) – NonSortie jackOui (mini-jack 3,5 mm)Tuner FM (Radio)Oui (avec RDS)Amélioration sonoreNonCodecs supportés (audio & vidéo)MPEG4, h.264, XviD, DivX, WMV, VC-1, VP8 MP3, AAC, AAC+, eAAC+, WAV, WMA, OGGBatterie2440 mAhDimensions129,6 x 66 x 9,8 mmPoids121 grammesIndice DAS/SAR (W/kg)0,34 W/kg (tête)Prix conseillé~ 299 euros Prise en mainAu premier abord, nous pouvons voir que LG a réussi à préserver un design quasiment identique à celui de son grand frère. En plus de bordures d’écran fines, ses 121 grammes et 9,8 mm d’épaisseur lui confèrent une agréable sensation de robustesse en main. Il a déjà fait deux baptêmes de l’air qui n’ont laissé aucune trace, et je dois dire avoir été surpris de sa solidité. Merci également à la vitre Gorilla Glass qui remplit bien son rôle.La coque arrière est habillée d’un plastique légèrement texturé qui assure une bonne tenue en main et réduit les risques de chutes. Finalement assez proche des dimensions d’un Moto X, l’écran est exploitable à une main. En parlant de cela, LG a ajouté une suite de possibilités capables de transformer le pavé numérique, le clavier et l’écran verrouillé pour une utilisation à une main.Accompagnés d’un haut-parleur, le capteur frontal de 1,3 millions de points et les deux capteurs de luminosité et proximité sont placés à droite.Une nouvelle fois, LG se plie aux consignes de développement de Google en adoptant une barre de navigation logicielle rapide, et va encore plus loin. LG permet à l’utilisateur de modifier facilement le positionnement des différentes touches où vous le souhaitez.Tout autour, on observe un cerclage imitation aluminium. Juste au-dessus se trouvent un port jack de 3,5 mm, un second microphone et un capteur infrarouge. Car en plus d’intégrer un Tuner FM, le G2 Mini peut également jouer le rôle de télécommande universelle de télévision. Comment faire ? Tout comme la radio FM, une application Android, développée par le Coréen, est disponible dans le tiroir d’applications. Elle se nomme « Quick Remote ».À l’opposé, nous avons des haut-parleurs stéréo recouverts par des grilles en métal qui offrent une qualité plutôt honnête. En réglage moyen ou maximal, la qualité sonore offre une clarté acceptable, et ce, même si le volume est réglé au maximum. Entre ces haut-parleurs se situe un port micro-USB (version 2.0).Quant aux tranches gauche et droite, il n’y a rien de rien puisque les boutons Power et de volume sont placés en dorsal au niveau de l’appareil photo. À la différence du G2 qui intègre une LED au sein du bouton d’alimentation, le LG G2 Mini n’aura hélas pas eu droit à ce petit bonus. C’était utile pour être alerté des alertes entrantes lorsque le mobile était posé écran contre table. C’est d’autant plus dommage que le G2 Mini n’embarque aucune diode de notifications. Au dos, un capteur de 8 millions de pixels avec son flash de type LED. Hélas, ce dernier ne dispose pas de la stabilisation optique. Dommage.En bas de la coque, est incrusté le logo de la marque LG. Une autre occasion pour redécouvrir encore cette fameuse coque texturée qui a tendance à élever un peu la qualité du G2 Mini. C’est certes du plastique, mais qui reste quand même très souple et qui paraît solide.Une fois retirée, le G2 Mini laisse entrevoir sa conception interne qui très bien finie et ne laisse aucun circuit imprimé apparent.Situées en haut de l’appareil, les antennes LTE 4G sont placées de sortes que l’utilisateur en atténue le mois possible la réception. En dessous de l’antenne de droite, nous pouvons découvrir les deux lecteurs micro-SIM et micro-SD qui sont placés l’un sur l’autre. Ingénieux pour gagner de la place.Un peu plus bas, nous nous attarderons quelques instants sur cette batterie de 2440 mAh qui dévoile toutes ses caractéristiques techniques.Le G2 Mini a l’avantage d’avoir une coque amovible offrant un accès direct à la batterie, à la SIM et à la carte micro-SD. Même si beaucoup critiqueront le plastique, la finition générale du produit est bonne avec des connecteurs qui ne semblent pour l’instant souffrir d’aucun défaut. Les bordures sont très fines, mais tout de même moins que sur un LG G2 où l’écran occupe plus de 72 % de la façade. Qualité d’écranJe vous mentirai en vous disant que l’écran est parfait, car ce n’est pas réellement le cas. Doté d’une dalle de 4,7 pouces en définition qHD (540 x 960 pixels), les pixels offrent des couleurs assez réalistes, mais le problème demeure dans la résolution. Avec 234 pixels par pouce, il est inutile de nier qu’une personne avec une excellente vue en distinguera les pixels facilement en rapprochant l’écran du visage (dès 25 cm).Des pixels certes lisibles, mais cela n’ampute en rien sa beauté et sa réactivité qui sont vraiment au rendez-vous pour un écran de cette définition. En inclinant bien le G2 Mini, vous pourrez aisément constater que la dalle tactile est quasiment collée à l’écran, renforçant ainsi sa vivacité en utilisation. Couplée à une optimisation logicielle concluante, la navigation est plaisante. Entre les trois appareils comparés (G2 Mini, Moto X, 50 Helium), le Moto X est sans doute le plus concluant en tout point, mais le G2 Mini n’est vraiment pas loin derrière. Mais voilà, la réactivité logicielle du G2 Mini n’est pas aussi bonne que celle d’un Moto X. Logique, les deux processeurs ne sont pas du tout les mêmes. LG G2 Mini ( IPS-LCD ) | Motorola Moto X ( AMOLED ) | Archos 50 Helium ( IPS-LCD ) Il faut admettre que ce G2 Mini s’en tire à bon compte. Le produit a un prix assez élevé (environ 300 euros), mais il n’en est pas moins que l’écran de ce dernier est relativement bon. Je dois avouer être assez impressionné par l’évolution de la technologie IPS-LCD qui présente des couleurs de plus en plus belles avec des noirs de plus en plus profonds. Pas encore aussi autant qu’avec un AMOLED, mais il y a de beaux progrès et les blancs sont pour le coup très concluants, avec de bons angles de vision. Interface logicielleSous Android 4.4.2, le G2 Mini est issu de la dernière vague des mobiles LG annoncés sous KitKat en février dernier. À la différence de son frère qui dispose de toutes les fonctionnalités de l’interface LG (sans compter le G Pro 2), cette version mini en reprend l’essence, mais avec une interface plus légère et balayée de ces petites choses propres aux hauts de gamme qui ne sont pas forcément utiles sur un G2 Mini. À dire vrai, l’interface maison Optimus UI ne m’a jamais vraiment dérangée. Bien au contraire, je l’ai toujours trouvé très ouverte à la personnalisation, et c’est clairement le mot d’ordre sur Android. Et rien ne vous empêche de télécharger un launcher alternatif s’il ne vous convient pas ! Par l’arrivée de KitKat, nombreuses sont les fonctionnalités qui ont évolué, comme « Combinaison des touches ». Cette fonctionnalité était déjà présente sur les LG G2, G Pro et G Pad 8.3 notamment, mais elle se limitait seulement à une suite de touches préconfigurées. Désormais, il est possible de placer les touches de la barre de navigation où vous le souhaitez.Lorsque je fais une capture d’écran, je n’ai pas forcément envie d’avoir la barre d’état et la barre de navigation d’affichées. L’une des nouvelles fonctionnalités de LG permet à l’utilisateur de choisir, si oui ou non, il souhaite réaliser une capture « en plein écran » ou sur « une partie de l’écran ». Cet ajout n’est certes pas nouveau sur Android, mais le G2 Mini, à l’instar de tous les mobiles de LG sous KitKat, a la chance d’en profiter. Cela peut toujours être utile pour conserver ou partager une information.Knock Code, l’évolution naturelle de KnockOn, est également présente sur le G2 Mini. Toujours disponible, la première itération de KnockOn permet d’éveiller et d’endormir l’écran de son Android en effectuant cliquant deux fois rapidement sur l’écran. Pour fonctionner, cette technologie, développée par LG, est capable de détecter les doigts de l’utilisateur que l’écran soit allumé ou éteint. En veille, LG a réussi à en diminuer la consommation pour qu’elle soit moindre aux yeux des autres processus en tâche de fond. À partir de Knock Code, il vous sera donc possible de personnaliser un code dans un ordre de clics prédéfinis. Sans cela, l’écran ne s’allumera pas. Un code PIN de secours devra également être défini. Knock Code peut être configuré de 80000 manières différentes avec des combinaisons pouvant varier de 2 à 8 touches (selon vos préférences). Après s’y être fait, ça fonctionne plutôt bien !Dans cette nouvelle version, l’affichage du pourcentage de la batterie et le système d’économie sont toujours présents. Je ne saurais pas vraiment vous dire si c’est une nouveauté, mais les paramètres d’applications affichent également une option permettant de réinitialiser toutes les apps et leurs préférences à leur état d’origine.Bien qu’il aie déjà été possible de chiffrer les données du téléphone, rappelons qu’il est possible de le faire sur la carte SD très simplement. Notez cependant que le chiffrage prend un certain temps. Depuis les options proposées par LG, il vous sera possible de chiffrer un nouveau fichier en particulier ou l’intégralité de la carte SD. De fait, il y également des applications Android qui permettent de réaliser la même opération.Ce ne sont pas vraiment des nouveautés, mais les accessoires propres aux terminaux LG peuvent être activés et désactivés depuis les Paramètres du système. Initialement configurée en mode onglet, Optimus UI vous permettra aussi de changer l’agencement des paramètres en mode liste (pour ceux qui préfèrent).Pour conclure, une interface allégée avec des fonctionnalités utiles qui demeure relativement fluide en toutes circonstances. Appels & GPSCôté qualité téléphonique, je n’ai rencontré aucun grésillement, saturation ni coupure quelconque. De plus, le LG G2 Mini a l’avantage de profiter d’une très bonne accroche réseau ! Peut-être pas aussi concluante que chez un Moto X, qui est pour le coup vraiment excellent sur cet aspect.Pour ce qui est de la partie GPS, je ne pourrai en dire autant. Les captures d’écran que vous voyez ci-dessous ont été réalisées en mode avion avec seul le GPS d’activé. Résultat des courses, le G2 Mini aura mis 167 secondes pour réaliser une synchronisation à froid avec 11 satellites apour une précision de 18 mètres. Après avoir reproduit le même test à chaud, celui-ci aura seulement pris 4 secondes pour se synchroniser avec 7 satellites et une précision d’un rayon de 16 mètres.Ces tests ont été réalisés en plein Paris.En mobilité, j’imagine bien que vous avez une connexion Internet au réseau mobile, sauf en cas de batterie faible. En activant le GPS en Haute précision (avec la recherche à l’aide du GPS, Wi-Fi et Réseaux mobiles), le LG G2 Mini aura seulement compté 5 secondes pour se synchroniser à froid. À chaud, la question ne pose pas puisqu’il était instantané (< inférieur à une seconde). En réalité, ces résultats ne témoignent pas vraiment de la qualité de la puce GPS qui s'est montrée relativement bonne une fois bien localisée. Cela dépend plus du positionnement des satellites dans le ciel, des prévisions météorologiques et plusieurs autres critères. En somme, il ne fait aucun doute que le LG G2 Mini saurait offrir un meilleur résultat, mais il semblerait que les conditions ne tournaient pas en sa faveur. Appareil photoAu dos du G2 Mini, nous avons pu découvrir un capteur de 8 millions de pixels. Vous vous en serez douté, il n'est certes pas aussi efficace que celui du G2, mais il possède quand même quelques arguments pour se défendre. D'autant plus qu'il bénéficie de la presque totalité des fonctionnalités du G2 sur la partie photo, là où la partie enregistrement se limite seulement à deux modes. Il ne fallait pas s'attendre pas à filmer en 4K avec un S400 !Tout comme le G2, le G2 Mini vous permettra de gérer facilement la luminosité, la mise au point, les ISO, la balance des blancs, les effets de couleur, le minuteur, la définition de l'image et même la capture vocale. Comme son nom l'indique, cette option va vous permettre de facilement prendre des photos en prononçant un mot prédéfini. L'application fonctionne relativement bien et ne présente aucun souci notable.Ici, les fonctionnalités logicielles proposées par l'application Caméra sont utiles, à part peut-être la capture par la voix qui restera très gadget pour beaucoup. Un capteur relativement bien optimisé avec des photos et des vidéos satisfaisantes que je vous laisse à présent découvrir. Premier essai (exemple 1 : mode normal - exemple 2 : mode HDR) Avec les réglages par défaut, j'ai facilement pu constater que l'appareil photo présentait quelques faiblesses au niveau des contrastes en mode normal. Bien sûr, l'éclaircissement de l'image est possible, mais prenez garde à ne pas trop la surexposer. Pour le second exemple, le mode HDR rattrape la donne avec une photo plus proche de la réalité. Deuxième essai (exemple 1 : mode normal - exemple 2 : mode HDR) Sur le deuxième essai, c'est exactement le même constat (ou presque). Ici, la première photographie est mieux éclairée que la précédente. En même temps, c'est logique, puisque le soleil venait de derrière. Troisième essai (mode normal en intérieur) En intérieur, la qualité d'image est également plus convaincante qu'en extérieur. Vous ferez rapidement la différence en effectuant un zoom maximal sur les deux photos. Encore une fois, c'est logique : les éléments affichés à l'écran sont bien plus proches qu'en extérieur, où il y a notamment beaucoup plus d'aspects à traiter (variations constantes de lumière, éléments plus nombreux, distance d'affichage bien plus lointaine et d'autres critères qui rentrent en ligne de compte).Clôturons par une démonstration de la qualité vidéo en FHD 1080p (en extérieur) : Lien Youtube Chaine Youtube FrAndroid PerformancesÉtant un peu réticent vis-à-vis du Snapdragon 400 au premier abord, j'ai été assez surpris par les optimisations et performances offertes par ce G2 Mini. Le type de S400 choisi par LG est de la série MSM8926. Il est basé sur un Cortex-A7 et gravé en 28 nanomètres, composé de quatre coeurs, qui est cadencé jusqu'à 1,2 GHz. Couplé à un écran en définition qHD (540 x 960 pixels) et 1 Go de mémoire RAM, l'expérience utilisateur est vraiment au bonne. J'irais même jusqu'à dire avoir été impressionné par l'optimisation prodiguée par LG sur ce dernier.Même si les benchmarks donnent une idée des performances, il ne faut pas entièrement se focaliser sur ces derniers, mais plus sur son expérience personnelle. Possesseurs d'un Moto G, vous serez probablement d'accord sur le fait que la version de quatre coeurs du Snapdragon 400 reste criticable lorsque la demande en ressources vient à exploser, notamment avec les applications et jeux très gourmands.  Hormis cela, le Snapdragon 400 se défend très bien et ne présentera aucune faiblesse en utilisation normale (Facebook, Twitter, Google Maps, Deezer/Spotify, Gmail, YouTube, et même des jeux un peu gourmands).Voyez les résultats de benchmark : un AnTuTu à plus de 17000 points, un Quadrant à plus de 9000 points et un Epic Citadel en Ultra High Quality à 48 images par seconde tout rond qui fait assez mal ! Admettons que l'écran qHD y est quand même pour beaucoup en décuplant quelque peu les performances, tout en augmentant l'autonomie. Pour réouvrir la parenthèse des jeux, l'ensemble des jeux compatibles du Google Play fonctionnent. Le seul point rédhibitoire est situé au niveau de sa puce graphique Adreno 305 qui, même si elle est assez bonne, ne sera pas en mesure de faire fonctionner tous les jeux. On est quand même loin d'une Adreno 320 (d'un Moto X) avec ses 51,2 GFlops, les performances brutes de l'Adreno 305 étant beaucoup moins poussées pour un maximum de 21,6 GFlops. LG G2 MiniMotorola Moto GMotorola Moto XGoogle Nexus 5VersionAndroid 4.4.2 KitKatAndroid 4.4.2 KitKatAndroid 4.4.2 KitKatAndroid 4.4.2 KitKatDéfinition d'écranqHD : 540 x 960 pixelsHD : 720 x 1280 pixelsHD : 720 x 1280 pixelsFHD : 1080 x 1920 pixelsProcesseurquadri-coeur S400 (Cortex-A7) à 1,2 Ghzquadri-coeur S400 (Cortex-A7) à 1,2 Ghzdouble-coeur S4 Pro (Krait 300) 1,7 GHzquadri-coeur S800 (Krait 400) 2,3 GHzPuce graphiqueAdreno 305Adreno 305Adreno 320Adreno 330Mémoire RAM1 Go1 Go2 Go2 GoAnTuTu17129 pts17209 pts22725 Pts 28343 pts Quadrant9000 pts 8492 pts 8278 pts7822 ptsBenchmarkPi389362157 143 Epic Citadel (Ultra High Quality)48,0 fps34,5 fps 58,8 fps 48,6 fps3DMark49302834 7176 /GFXBench (T-Rex 2.7 FHD)5,8 fps5,8 fps16 fps 23 fps  AutonomieEn premier lieu, le LG G2 Mini s'est montré très endurant en tenant deux journées complètes en utilisation normale (avec des appels et sms, du web et mails, et un peu de jeu) avec le réseau 4G activé. L'optimisation logicielle n'y est pas pour rien ! Surtout avec une batterie de 2440 mAh, un processeur quadri-coeur Cortex-A7 réputé pour sa faible consommation et un écran qHD, nous sommes en droit de nous attendre à de bons résultats, et c'est le cas.Pour être vraiment certain, j'ai réalisé une série de tests. Verdict, les résultats obtenus se sont une fois de plus montrés très bons. Pour avoir joué durant 45 minutes avec les réseaux mobiles et synchronisations activés, le G2 Mini n'avait perdu que 18 % de batterie. Bien sûr, vous aurez compris qu'il s'agit d'un simple indicatif. Vous comprendrez également que ces résultats ne sont en aucun cas représentatifs du fait que chaque jeu est différent (consommation énergétique, éléments à traiter, 2D et/ou 3D, etc.). Bref. Pour compléter ce test d'endurance, nous avons activé le mode avion et le WiFi avec la luminosité et le volume au maximum. Résultat des courses, le G2 Mini aura seulement perdu 9 % d'énergie (sur le total des 100 %) pour environ 1h de vidéo sur YouTube. Notre VerdictdesignComparable à son grand frère, le G2 Mini présente un design épuré pour un produit à mi-chemin entre les mobiles d'entrée et de milieu de gamme. Assez agréable en main, notamment grâce à sa coque dorsale texturée, le G2 Mini possède une coque amovible. De là, l'utilisateur aura la mainmise sur la batterie, les lecteurs de carte SD et carte SIM. Une aubaine depuis le G2 ! Outre cela, les dimensions du G2 Mini restent tout à fait honorables, et comparables à celle d'un Moto X.écranMême si beaucoup critiqueront sa définition d'écran, je pense que les choix de LG sont réfléchis. Ici, le but n'est pas de proposer une alternative haut de gamme miniature du LG G2, mais bien une version « mini » dans tous les sens du terme. Le choix d'une telle définition est donc calculé de sorte à préserver de très bonne performances pour une autonomie digne de ce nom. Les pixels sont visibles mais il faut vraiment avoir les yeux collés à l'écran pour réellement les distinguer. À 30 cm, ils s'effacent tout simplement. Hormis sa résolution critiquable, l'écran du G2 Mini affiche une belle qualité d'image avec des couleurs quasiment irréprochables, une réactivité et des angles de vision excellents. Avec une dalle tactile collée à la vitre, nous en attendions pas moins ! Cet écran de 4,7 pouces voit sa résistance aux chocs et aux rayures décuplée par un verre de protection Gorilla Glass 2. Il possède en outre une bonne luminosité.logicielDifficile de faire mieux que KitKat. En plus des fonctionnalités de l'interface maison Optimus UI (KnockCode, Combinaisons de touches, et compagnies), le G2 Mini a l'avantage de profiter de l'intégralité des avantages liées à Android 4.4.2. Avec une optimisation au rendez-vous, nous pouvons profiter d'une fluidité digne de ce nom sans aucun plantage quelconque.caméraPour un mobile à ce positionnement tarifaire, les deux capteurs photos installés sont dans la norme. En extérieur comme intérieur, la qualité générale des photos et des vidéos sera amplement suffisante en le considérant comme un appareil photo numérique d'appoint. S'ajoute à cela une suite de fonctionnalités logicielles légères qui se montrera utile en mobilité.performancesExcellentes sont les performances et l'optimisation du G2 Mini ! Comparativement à un Moto G (qui embarque quasiment le même processeur mais sans 4G), le G2 Mini a su montrer sa puissance avec une très bonne gestion multi-tâche. 1 Go de RAM est maigre, mais cela ne sent pas à l'utilisation. À mi-chemin des Moto G et Moto X, le G2 Mini prouve que le Snapdragon 400 est loin d'être enterré ! Le couple parfait avec un écran qHD et une quantité de RAM suffisante pour les applications et jeux actuels, mais qu'en sera-t-il d'ici quelques mois ? Le marché ne cessant d'évoluer, il est assez difficile de savoir si le G2 Mini sera encore une alternative intéressante dans quelques mois. Gardez en mémoire que les performances sont au top pour un S400.autonomieGénéralement, une optimisation concluante rime souvent avec bonne autonomie. Concernant son G2 Mini, nous pourrions dire que LG a réussi à tenir le pari avec une endurance d'environ deux jours sans recharger l'appareil. Même constat en multimédia, l'autonomie demeure excellente.Bien qu'assez onéreuse, cette version mini du G2 dispose de quelques arguments notables. Tout d'abord, nous pouvons parler de sa compatibilité LTE 4G jusqu'à 150 Mbps qui commence à devenir un critère déterminant dans l'achat d'un mobile. Il dispose d'une coque amovible qui permet d'accéder librement à la batterie, à la carte SIM et à la carte SD. Les fonctionnalités logicielles sont aussi très intéressantes sur une interface maison "Optimus UI" parfaitement adaptée au S400 de Qualcomm installé dans le G2 Mini. Une belle surprise ! L'optimisation, comme les performances et l'autonomie, est excellente au jour le jour avec très peu de ralentissements. Même avec des applications lourdes (comme Google Maps par exemple), LG nous montre que le S400 a encore une très belle vie devant lui. J'ai eu autant de plaisir à jouer avec le G2 Mini qu'avec un Moto X, Galaxy Nexus, G2, Liquid E2... Un peu onéreux pour ses caractéristiques techniques, il est suffisamment performant pour convaincre qui ne souhaiterait pas monter jusqu'à un G2. Gardez toutefois à l'esprit que le haut de gamme 2013 de LG commence désormais à voir son prix baisser, et qu'on peut le trouver à moins de 400 euros chez certains revendeurs. A moins de préférer un format plus compact, le jeu en vaut-il la chandelle ? * Très bonnes performances * Autonomie assez épatante * Compatible 4G jusqu'à 150 Mbps * Fonctionnalités intéressantes * Lecteur de micro-SD * Coque arrière amovible * Absence de diode pour les notifications * Définition d'écran un peu trop basse * Prix trop élevé ! DisponibilitéLe LG G2 Mini commence déjà à s'inviter chez la plupart des revendeurs à un tarif préférentiel de 299 euros . Read more Lettre ouverte à l'attention du... Atlantico Atlantico : Après avoir misé sur des politiques de relance par la demande, depuis la fin des années 1980, la baisse des cotisations patronales figurent parmi les outils favoris des hommes politiques français en matière d'emploi. Cette semaine, Pierre Gattaz, à la tête du Medef, a pour sa part évoqué la possibilité d'un Smic intermédiaire pour les populations les plus éloignées de l'emploi. Ces réponses sont-elles adaptées à la réalité que connaissent aujourd'hui les entreprises ? Nicolas Goetzmann :  Ces sujets ne sont pas sans rapport avec les « difficultés de la France », mais ils sont sans rapport avec la crise que nous traversons depuis 2008. La réalité est que la problématique du coût salarial existe depuis longtemps en France et que malgré cela, le chômage avait atteint un plus bas de 20 ans en 2008, à 7% de la population active, et que le rythme de baisse était alors significatif. Il n'a échappé à personne que cette crise a frappé tous les continents, et ce quels que soient les coûts salariaux. Il est alors difficile de croire que la cause du déclin français serait les charges salariales, le SMIC, ou même quelque problème de compétitivité. Sur ce dernier point, il est également à noter que le commerce extérieur français hors Union européenne est excédentaire sur les deux premiers mois de l'année 2014, avec un excédent commercial de 1.7 milliards d'euros pour février selon les données Eurostat. Le débat sur l'écart des salaires entre les pays émergents et la France est anéanti par ces chiffres. Cela n'a simplement rien, mais alors rien à voir. Quand on explique que l'Allemagne s'en sort très bien, et  que les autres doivent s'aligner, c'est obstruer totalement le débat européen : car si la demande européenne suffit à l'Allemagne, elle ne suffit pas à l'ensemble de l'Europe.Les questions qui font aujourd'hui débat ne sont que les questions relatives à l'offre, ce sont des questions importantes mais il est absolument sidérant de constater que l'offre devient un sujet en France au seul moment depuis 80 ans où la demande est le véritable problème . Nous aurons tout le temps de traiter les questions de l'offre au moment où le problème de demande sera réglé.Concernant les baisses de charges, la banque Natixis publiait une note relative à ce sujet en janvier dernier, et notait que 4 secteurs sur 13 avaient vu leur taux de marge diminuer. Et ce, malgré la baisse des charges. L'explication de la banque est que la faiblesse des ventes n'a pas permis de réajuster leurs prix à la hausse.Et de conclure : « Baisser les charges sociales des entreprises n'est pas normalement une politique adaptée : elle réduit le coût du travail dans toutes les branches, y compris celles où les marges bénéficiaires sont élevées, alors que le problème ne se pose que dans 4 branches et qu'il s'agit d'un problème de prix. Il y a donc, en cas de baisse des charges, un effet d'aubaine dans 9 branches sur 13 ». Si les 9 secteurs préservés avaient voulu embaucher, ils l'auraient déjà fait. Alexandre Delaigue : Tous les problèmes économiques français - déficits publics, chômage, revenus en berne, inégalités, sentiment de déclassement... Se ramènent a un seul problème : le rythme de croissance du PIB par tête est trop bas. Il ne cesse de ralentir depuis les années 70, passant de plus de 3% a l'époque a 0,5 environ depuis 2000. Ce n'est d'ailleurs pas spécifiquement français : tous les pays, sauf les pays émergents en rattrapage, connaissent le même. Une croissance plus forte résorberait le chômage, les déficits, la dette/PIB, etc. En traitant ces problèmes, on traite les symptômes plus que la cause elle-même. Olivier Passet :  Il ne faut pas manier le paradoxe pour le paradoxe. Je n'irai pas jusqu'à dire que ces questions sont sans lien avec les difficultés économiques des entreprises . En revanche, réduire les problèmes à cela, relève de la dangereuse obsession. Pourquoi ? Premièrement, parce que les secteurs les plus pénalisés aujourd'hui par le coût du travail, sont ceux les plus denses en emplois à faible qualification : dans certains services aux entreprises (le nettoyage, le gardiennage ou encore le transport) ou dans les services aux particuliers, le commerce, l'hôtellerie, la construction. Ce ne sont paradoxalement pas les entreprises exposées le plus frontalement à la concurrence internationale qui souffrent le plus du coût du travail aujourd'hui. Mais celles qui dépendent fortement de la demande intérieure. Elles sont extrêmement fragilisées par la conjoncture du moment, comme le montrent le niveau des défaillances ou l'intensité des  problèmes de trésorerie ou de marge qu'elles rencontrent. Ces entreprises, sans aucun doute, vivent le niveau du SMIC et le poids des charges sociales comme une contrainte souvent insupportable. Mais ce sont en même temps celles qui sont le plus pénalisées par rigueur salariale, compte tenu de leur sensibilité à la demande. Pour tous ces secteurs, il n'est pas sûr que ce que l'on croit être le remède ne soit pas au final pire que le mal. Deuxièmement, cette vision des choses relève d'une représentation  beaucoup trop réductrice des problèmes. Parce que le chômage se concentre sur les non qualifiés et les faibles revenus, ce serait le signe, pour une majorité d'économistes, que les problèmes se concentrent là. Il en résulte un seul et unique projet productif pour la France : créer ou développer les structures productives qui feront office de voiture-balai pour l'emploi peu qualifié. C'est une erreur monumentale, qui explique pourquoi, années après années, l'économie française perd des parts de marché. Car en cherchant à accroître toujours plus le contenu en emploi de sa croissance, elle mine sa productivité. Enfin, on perd trop souvent de vue que les entreprises disposent de nombreux moyens pour déroger aux contraintes. Si l'on prend l'exemple du SMIC, les emplois aidés, l'apprentissage, l'auto-entrepreneuriat, les stages, sont autant de modalités qui permettent aujourd'hui à une entreprise de contourner l'obstacle. Et lorsque l'on voit la faible appétence des entreprises privées pour les emplois d'avenir par exemple, subventionnés pourtant à 35 %, on peut soupçonner que le SMIC n'est pas le seul frein à l'embauche.  Quels sont les vrais problèmes auxquels l'économie et les entreprises françaises sont confrontées ? Pourquoi ses problèmes ne relèvent pas directement de la question des charges ? Alexandre Delaigue : Le vieillissement de la population. La faible croissance. La perspective potentielle d'une catastrophe environnementale. La construction européenne. Ces différentes questions sont bien plus importantes que le niveau des cotisations sociales. Mais les priorités sont totalement inversées. Ces sujets sont soumis aux contraintes politiques du moment, alors que c'est l'inverse qui devrait prévaloir. Lorsqu'il s'agit de réfléchir aux moyens de réduire les émissions de co2, la priorité est donnée aux subventions à accorder et aux intérêts particuliers à aider. C'est comme si l'on voulait traiter la transition vers l'automobile en se demandant à quelle société de palefreniers il faut verser des subventions... Nicolas Goetzmann : Il est à la mode de demander aux entrepreneurs ce qu'ils en pensent. Alors il suffit de regarder les enquêtes menées par l'INSEE pour savoir quel est le problème de la France. En prenant l'exemple symbolique des industriels du secteur automobile, 82.6% d'entre eux estiment être confrontés à un problème de demande, quand 5.3% estiment que c'est du côté de l'offre que ça se passe. La même étude de l'INSEE relate que le taux d'utilisation des capacités de productions s'établit à 80% au lieu de 85.6% en temps « normal ». C'est-à-dire que la France est actuellement en surcapacité. La surcapacité veut dire que l'offre est supérieure à la demande. Alors deux solutions : soit on comprime l'offre pour la ramener au niveau de la demande, ça s'appelle la déflation, soit on remet la demande au niveau de l'offre, et cela passe par la politique monétaire. Parce que la demande keynésienne, c'est à dire la relance par la dette et les déficits, ça ne marche pas. C'est la Banque centrale qui contrôle la demande, et non le pouvoir budgétaire, ça aussi, il va bien falloir l'admettre un jour. Mais ces industriels ont-ils raison de pointer la demande ?  Pour le savoir il suffit d'observer l'évolution de la demande intérieure en France pour les 15 dernières années. On constate clairement que cette demande intérieure française progressait de façon stable à un rythme légèrement inférieur à 4.5%, chaque année. Mais depuis 2008, la « demande » intérieure s'est effondrée, comme le démontrent les graphiques ci-dessous :Demande Intérieure France (en rouge) comparée à sa tendance pré-crise (en noir). En milliards d'euros. Données INSEE. Cliquez pour agrandir Courbe du décrochage de la demande intérieure France relativement à sa tendance pré-crise (représentée par l'axe 0). En Milliards d'Euros. Données INSEE Cliquez pour agrandir Qui peut croire qu'il s'agit d'un problème d'offre ? Un autre point devrait peut être alerter notre gouvernement. La France et l'Europe ne sont pas seules au monde, mais elles sont les seules à patauger encore dans la crise. Je me permets ce parallèle en constatant que l'Europe est également la seule à avoir diagnostiqué un problème d'offre. Au bout de 6 années de crise, il est un peu alarmant d'observer ce niveau de déni, et l'incapacité de se confronter à la réalité des succès engrangés à l'étranger. Depuis 2009, les plus grands universitaires anglo-saxons, d'obédience aussi bien libérale que néo keynésienne ont diagnostiqué ensemble ce problème de demande qui a trouvé sa source dans une énorme erreur d'appréciation des politiques monétaires. Ce constat est basé sur l'analyse des monétaristes, c'est à dire de libéraux. On peut accuser les libéraux de tous les maux, mais le fait est que les plans de relance monétaires proviennent bien de cette école. Voilà pourquoi tout a changé depuis lors. La Fed a modifié ses objectifs monétaires, mais également la Bank of England, la Bank of Japan, mais pas la BCE. Malgré cela, le débat monétaire est inexistant en Europe, il reste coincé à la seule appréciation de la valeur de la monnaie, ce qui ne fait que traduire l'incompréhension générale du phénomène. La politique monétaire n'est pas un outil au service de la compétitivité, c'est un outil au service de la demande intérieure. Demande intérieure qui est bien le problème que connaissent la France et l'Europe. Qui peut croire dans les circonstances actuelles que l'offre crée la demande ? Le chômage n'est rien d'autre que l'offre de travail, alors l'offre crée la demande ? Vraiment ?? Olivier Passet :  A côté, du problème apparent du coût du travail, il y a des problèmes plus profonds, qui expliquent notre extrême vulnérabilité aux prix. Etre sensible au prix, c'est d'abord avoir un problème de positionnement de gamme. Et c'est alors du côté du mauvais fonctionnement de nos systèmes de formation, d'innovation et des freins à la prise de risque qu'il faut porter l'attention. Et derrière cela, il y a des enjeux fiscaux, d'organisation et de gouvernance, au moins aussi importants que la question du coût du travail. Dans le même ordre d'idée, la difficulté qu'ont nos PME et nos entreprises de taille intermédiaire à fort potentiel, à attirer les talents, constitue un problème de premier plan.  Or l'Etat et les grands groupes siphonnent les ressources dans ce domaine, en recrutant des surqualifiés au regard de leurs véritables besoins. Il est indispensable de rétablir un meilleur équilibre. Ensuite, l'investissement n'est pas suffisamment au coeur de nos préoccupations. L'automatisation, la robotisation, la qualité des systèmes d'information sont la clé de la productivité de la réactivité et d'une relocalisation future de nos chaînes de valeur. Or notre obsession de l'emploi immédiat, tend à nous aveugler et nous conduit à négliger la question de la fiscalité du capital.  On n'accorde pas suffisamment d'importance en France à la fiscalité des sociétés notamment, qui est pourtant à la base d'arbitrages de localisation ou de facturation des entreprises, préjudiciables à  l'emploi et à l'investissement.  Et même lorsque l'on veut donner la priorité à l'emploi, notre obsession des coûts nous fait perdre de vue que la flexibilité des temps de travail est un enjeu de plus en plus stratégique.Nous vivons dans une économie toujours plus fluide, plus en quête de réactivité. Une entreprise qui opte aujourd'hui pour une implantation au Royaume-Uni ou en Espagne, le fait aussi sur ces critères, et pas seulement sur ceux du coût du travail. Revenons enfin à nouveau à la question d'un SMIC jeune. Encore une façon de dévoyer un vrai problème. Car si l'on regarde de plus près nos partenaires européens, il apparaît rapidement qu'avec ou sans SMIC, ou avec un SMIC moindre, certains pays connaissent des problèmes d'intégration des peu qualifiés ou des jeunes au moins  aussi intenses que les nôtres.  Ce qui fait la différence, c'est la qualité des systèmes d'apprentissage.  Or ce système existe en France, et la vraie question est de comprendre ce qui bloque son essor, alors même que ces jeunes sont rémunérés entre 25% et 75% du SMIC. On verrait alors que c'est davantage du côté des freins réglementaires qu'il faut chercher la réponse. Il faudrait enfin aborder les dysfonctionnent européens, le défaut d'harmonisation : le SMIC français devient un problème aigu quand des entreprises allemandes  mobilisent pour quelques euros de l'heure des travailleurs détachés des PECO sous droit social de leur pays d'origine. Mais sur ce terrain il y aurait à nouveau trop à dire. Pourquoi le gouvernement, les hommes politiques et une partie des économistes sont-ils focalisés sur des problèmes d'arrière-garde comme le coût du travail ? Alexandre Delaigue :  Parce que c'est un sujet facile. Tout le monde peut comprendre, et les sujets qui tiennent dans un slogan format timbre poste sont toujours mieux traités que ceux qui exigent de réfléchir et de poser des problèmes sérieusement. Comment élever la croissance devrait être la question centrale. Elle est périphérique en pratique. On attend la croissance comme on attend Godot, avec des incantations et en espérant que cela viendra juste a temps pour la prochaine élection. Olivier Passet :  Le coût du travail n'est pas un problème d'arrière-garde. Je dirais que c'est plus un symptôme que la cause de nos problèmes. Et en économie, on confond souvent cause et effets, ce qui nous conduit à traiter les symptômes plus que le mal. Nicolas Goetzmann :  Les problématiques monétaires sont rares. 1929, la grande inflation des années 70, le Japon de 1990, et la crise de 2008. En dehors de ces périodes, ce sont les débats sur l'offre qui monopolisent le débat, qui sont intéressants et qui peuvent améliorer l'économie d'un pays. Pendant les périodes ou une banque centrale fait correctement son travail, les questions de monnaie sont sans intérêt. Cette euthanasie intellectuelle sur la monnaie devient un problème sérieux quand la demande s'écroule , car nous sommes habitués à ne parler que d'offre. Quand on a un marteau dans les mains, on voit des clous partout. Si la France connaissait une croissance de 4% depuis plusieurs années, si son niveau de chômage était encore trop élevé, il serait alors souhaitable de baisser les charges, ou même d'arrêter de rehausser le SMIC car cela permettrait d'absorber dans l'emploi une partie de la population exclue du marché du travail. Mais baisser le SMIC aujourd'hui, alors que personne ne chercher à embaucher, cela ne sert strictement à rien. Mais il existe un autre problème. Il est devenu impossible de critiquer ce que fait la BCE, parce que « ce n'est vraiment pas bien ». Toute critique est rejetée sous couvert de l'indépendance de l'autorité monétaire. Le renoncement à essayer de changer quoi que ce soit du côté de la BCE oblige certains acteurs à envisager l'idée sous un autre angle : on accepte la contrainte et on essaye de trouver des solutions. Le problème c'est que la solution, en acceptant cette contrainte, c'est la ruine par la déflation. La déflation ou la réforme de la BCE, voilà le dilemme. Pour le moment, nous avons choisi d'aller vers la ruine, comme on emmène la vache à l'abattoir. Alors l'important c'est d'aller vers la ruine, mais en silence.  Le patronat lui-même pointe l'index sur la question des charges pesant sur le travail. Pourquoi cette catégorie, en principe aux premières loges, est-elle aussi "aveugle" ? Olivier Passet :  Il n'est pas aveugle, mais le patronat est loin d'être homogène. Certaines fédérations tendent à prendre de plus en plus de poids, notamment celles du grand commerce, de l'hôtellerie et de la restauration ou de la construction. Ce sont aussi les gagnants apparents directs d'une baisse des coûts du travail. De surcroît, il est plus facile pour le patronat ne négocier des baisses de prélèvement dans la cadre d'une problématique de l'emploi, qu'au nom de l'investissement ou de la compétitivité. La seconde dimension sera toujours interprétée comme un cadeau fait aux « patrons ».  Alexandre Delaigue :  Vous n'allez pas cracher sur une baisse de coût subventionnée par le contribuable. Et vous n'avez pas très envie que l'on vous soumette a des contraintes - concurrence accrue, nouveaux arrivants plus productifs qui vous taillent des croupières... Il est bien plus simple de faire le chantage a l'emploi et la complainte du coût du travail. N'oublions pas que le patronat ancien est surreprésenté médiatiquement ; les autres ont mieux a faire que parader en couverture des magazines en demandant des aides. Nicolas Goetzmann :  C'est incompréhensible. Que le Medef n'arrive pas à diagnostiquer ce problème alors même que les entreprises souffrent de carnets de commandes vides, c'est une anomalie. Parce que si une entreprise veut faire des marges, et si elle a le choix entre remplir son carnet de commandes et baisser les salaires de 3 euros, je pense qu'elle va choisir le carnet de commande. Peugeot est l'exemple parfait, voilà une entreprise qui a été sacrifiée sur l'autel d'une erreur manifeste. L'entreprise dépend de la demande intérieure européenne qui s'est effondrée depuis 2008. Et on accuse Peugeot de n'être pas assez compétitif à l'export ? Si l'objectif de cette politique est de ne plus vendre une voiture en Europe et de ne compter que sur les marchés étrangers, nous sommes sur la bonne voie. Les millions de chômeurs européens pourront regarder leur télé et se régaler devant les chiffres du commerce extérieur. Pendant ce temps les Etats-Unis pourront continuer à produire des voitures et les acheter, tout en constatant du haut de leurs salaires que leur commerce extérieur est déficitaire. Ils en seront sans doute très malheureux... Le Medef, comme le patronat allemand, devraient se rendre compte que le marché européen est le plus grand marché de consommateurs au monde. Si on continue d'appliquer une logique « petit bras » de pays de taille intermédiaire qui consiste à mesurer son prestige par rapport à la taille de son excédent commercial, je réponds que les Etats-Unis, qui ont un marché de taille similaire, ont un déficit commercial depuis 40 ans. Leur croissance est bien évidemment supérieure à la nôtre.En se reposant exclusivement sur les marchés à l'export, nous nous exposons à la première crise extérieure. En se basant sur notre marché intérieur et en le contrôlant, on peut éviter de dépendre des autres. C'est ce que font les Etats Unis. Quel peut être le déclic qui changerait les sujets de préoccupation des décideurs et des débatteurs sur les questions économiques ? Alexandre Delaigue : Un changement de contexte important. Des contraintes extérieures majeures qui viendraient modifier radicalement les priorités, comme il y en a eu dans le passe. On a la chance de vivre une époque apaisée, sans grands conflits ni crises majeures,  comme dans tout le vingtième siècle. Cela a une conséquence : on devient bien frivoles. Les historiens regarderont notre époque avec curiosité, mais sans grand intérêt. Nicolas Goetzmann :  Regarder la réalité pourrait être une bonne idée. Les logiques de baisse du coût du travail, de baisse des déficits sont des logiques qui ont un sens quand la croissance existe. Mais lorsque la stagnation est la règle, ces questions sont simplement hors-jeu. Les déroutes de ces politiques de l'offre, au Portugal, en Espagne, en Grèce etc ...l'attestent : ces économies ont été pulvérisées sur la base d'erreurs de jugement. Je le répète souvent, mais la troïka avait fait un plan pour la Grèce en 2010 : le pays devait connaître une récession de 2.6% cette année-là et retrouver la croissance dès 2011. Le bilan réel, c'est une récession qui dure encore et qui atteint 24 % du PIB. Mais rien n'y fait, on est tellement persuadé d'avoir raison que l'on continue avec la même logique. Maintenant c'est au tour de la France de goûter à ce régime d'une efficacité redoutable. Il suffit d'observer le débat américain sur le traitement de la crise pour se rendre compte que quelque chose ne va pas en Europe. Les questions posées sont radicalement opposées. Toutes les questions sont dirigées vers la FED, qui a fait le boulot pour sortir le pays du marasme. Les oppositions ont été franches, dures, et de haut niveau, le résultat n'est pas encore parfait, mais le diagnostic américain est que la crise de 2008 est d'origine monétaire. Les banques centrales se sont trompées, comme elles s'étaient trompées en 1929. Mais en Europe, on préfère faire l'autruche, il serait vraiment trop inconvenant de venir attaquer le mandat de la BCE. Par contre le SMIC jeune, ça c'est une bonne idée. Entre temps, la FED ou la Bank of England ont procédé à des plans de relance de plus de 20 points de PIB, ce qui serait l'équivalent de 400 milliards d'euros pour la France. Pendant ce temps en France, on parle de geler le point d'indice des fonctionnaires pour économiser 800 millions d'euros. Les rapports de grandeur sont de 1 à 500, et on croit que ce genre de mesure va nous permettre de sortir du marasme. C'est vraiment une blague. Olivier Passet :  Il n'y aura pas de déclic. Pour l'heure l'économie française est prise en étau entre les modérations salariales du sud et celle de l'Allemagne. Si peu à peu, l'Allemagne relâche sa discipline salariale et que la crise se précise dans les économies émergentes, notre obsession perdra en intensité. Il peut y a Read more Test du Nokia X, les premiers pas du... Frandroid Du Nokia sous Android ? Un doux fantasme d'amateurs de 3310 qui, passés à l'ère des smartphones, rêvent encore à la finition des produits finlandais, mais déclinée à la sauce connectée. Le Nokia X (accompagné de ses comparses XL et X+) répond à cette demande, ou presque : le trio ne vise pas le haut du panier mais bien l'entrée de gamme. En témoigne le cas du X, tout juste disponible en France au prix de 99 euros, et qui fait l'objet de ce test. Nokia X Platform, cette mouture d'Android à l'arrière-goût de Windows, vaut-elle que l'on débourse une telle somme ?Des caractéristiques simplettesSoyons honnêtes : que l'on apprécie ou non Nokia, les caractéristiques de son X sont loin de faire rêver. Pour un premier terminal sous Android, le Finlandais tape dans l'entrée, mais alors très entrée de gamme. Pêle-mêle, un écran de 3 pouces de définition 480 x 800 pixels sur une dalle LCD (résolution au ras des pâquerettes de 233 ppp), un processeur double-coeur Snapdragon S4 Play à 1 GHz, 512 Mo de RAM et un capteur photo de 3 mégapixels sans flash ni autofocus.Certes, le Nokia X vaut 99 euros (119 euros moins 20 euros d'ODR temporaire, mais on peut d'ores et déjà gager que d'ici quelques mois, cette centaine d'euros sera son tarif syndical), ce qui reste bien peu. Mais d'autres smartphones - chinois - proposent mieux sur le papier à prix équivalent. Nokia XVersionAndroid 4.1 (Nokia X Platform)Taille d'écran4 poucesDéfinition480 x 800 pixelsTechnologieLCDDensité de pixels233 pppRésistance aux chocs et aux rayuresNonArchitectureKrait 400SoCQualcomm Snapdragon S4 Play (MSM8225)Nombre de coeursdouble-coeurCadence processeur1 GHzPuce graphique (GPU)Adreno 203Mémoire vive (RAM)512 MoMémoire Interne (ROM)4 GoMicro-SDOui (jusqu'à 32 Go)WebcamNonAppareil photoCapteur de 3 mégapixelsEnregistrement vidéoVGAWi-Fi802.11 b/g/nBluetoothOuiRéseaux3G jusqu'à 7,2 MbpsNFC (Near Field Communication)NonCapteursAccéléromètre, proximitéPorts (entrées/sorties)micro-USB 2.0Tuner FM (Radio)OuiÉtanchéitéNonBatterie1500 mAhDimensions115,5 x 62 x 10,4 mmPoids128,7 grammesDASNCParticularitésServices Microsoft, Here MapsPrix99 euros Une briquette colorée, mais une briquette quand mêmeLe Nokia X a de quoi séduire, et tout à la fois déplaire. Ce petit appareil, mignon tout plein grâce à ses coloris acidulés (dans sa version rouge notamment, dont le coloris a été particulièrement bien choisi), a de quoi irriter : carré, épais, il fait l'impasse sur la taille mannequin que visent ses concurrents, lesquels ont tendance à rivaliser de finesse. 10,4 mm d'épaisseur, près de 130 grammes sur la balance, alors que son écran ne dépasse pas les 4 pouces, ce n'est pas rien.L'engin est carré, du moins sa coque arrière amovible, quand la façade vitrée arbore des angles arrondis qui adoucissent un peu l'ensemble. Les tranches sont elles aussi anguleuses, le tout en plastique épais et mat ultra sobre.Ceux qui veulent plus de couleur pourront d'ailleurs investir dans des coques supplémentaires pour une dizaine d'euros. Entre les connectiques et les boutons de l'appareil, tout est d'une simplicité hors pair : à droite, des boutons veille et volume de la couleur de la coque, en haut, une prise jack 3,5 mm et en bas, un port micro-USB.Même l'avant du smartphone joue la simplicité, avec un seul bouton situé sous l'écran. Un seul, mais qui mobilise un espace important, près de 2 cm... Dommage de ne pas avoir plus rogné, car le Nokia X propose un écran de 4 pouces dans un format qui évoque plutôt un terminal de 4,3 pouces. Un petit tour à l'arrière pour découvrir un logo Nokia creusé dans la coque, ainsi qu'un mince haut-parleur et un capteur photo de 3 mégapixels sans autofocus ni flash. On vous aura prévenus.Un dernier détail : la coque arrière, interchangeable, laisse accéder à deux ports pour cartes SIM, mais aussi à un slot micro-SD ainsi qu'à une batterie amovible. Presque une rareté. Dans l'ensemble, Nokia ne fait pas dans la dentelle, mais son X a un je ne sais quoi de séduisant. Légèrement enfantin, presque LEGO, il ne s'encombre pas de cas de consciences, prenant ses aises en termes de dimensions. Mais voilà, la solidité (en apparences du moins) est là, la finition est nickel et les coloris choisis avec art. À 100 euros, on attend au moins une chose : que si un smartphone fait jouet, il tienne au moins la route en cas de chute inopinée. Sur ce point, le Nokia X inspire toute confiance. Un écran... modesteOn peut sans peine parier que ce n'est pas dans son écran que Nokia a dépensé les sommes les plus importantes. Une résolution de 233 ppp, l'inconvénient, c'est évidemment maigre, et zoomer dans des pages web ne sera pas particulièrement confortable. De même, la consultation de photos laissera clairement à désirer.Toutefois, la luminosité est convenable sur ce smartphone, qui fournit des angles de vision honorables, même s'il faudra se contenter d'une certaine fadeur de l'affichage dès qu'on le penche un peu. Les couleurs sont relativement vives et profitent du système d'aplats de couleurs rappelant Windows Phone 8 pour faire bonne impression. Si vous avez l'habitude de smartphones plus haut de gamme, vous aurez tout de même du mal à vous y faire. Si la qualité d'affichage, compte tenu de la diagonale de l'écran et de sa définition (rappelons que des petits smartphones d'entrée de gamme, tel le Liquid Z3 d'Acer, se contentent de 320 x 480 pixels sur 3,5 pouces, quand le Liquid Z4, équivalent au Nokia X, sera lui aussi proposé à 99 euros), n'est pas si mauvaise compte tenu de son positionnement tarifaire, le Nokia X a tendance à mal réagir aux clics précis, du moins si l'on n'appuie pas relativement fort. En soi, cela peut parfois être agaçant, même si l'on constate que le scroll sur l'accueil ou dans des pages web se déroule sans encombre majeure. Les petits plus : la possibilité de déverrouiller l'écran avec le double tap (comme sur le LG G2, pratique !) et la possibilité d'afficher l'heure lorsque l'écran est en veille. Malheureusement, le Nokia X étant dépourvu d'un écran AMOLED, cette dernière fonctionnalité ruinera simplement votre batterie. Nokia X Plateform System : un air de Windows Phone sur un lit d'AndroidLe système d'exploitation du Nokia X est une version d'Android Open Source Project, et cela ne ressemble pas à ce que l'on a pu voir jusqu'à aujourd'hui sur les téléphones Android : la version se nomme Nokia X Plateform System, regardons ce qu'elle a dans le ventre. C'est bel et bien de l'Android, mais sans ses applications habituelles à base de Google et de services très populaires. Basé sur de l'Android 4.1.2 Jelly Bean, l'interface nous rappelle bien entendu l'expérience Windows Phone avec les tuiles (ou vignettes). Cette fois-ci, vous pourrez même utiliser les widgets Android dans cette interface tuile.   L'interface comprend trois écrans principaux. L'écran de verrouillage, sur lequel on peut retrouver les dernières notifications d'applications. La barre de notifications qui n'affiche pas de notifications... mais des accès aux paramètres. Le launcher se compose d'icônes d'applications que l'on peut positionner avec deux tailles différentes, et c'est également sur ce panneau à navigation verticale que l'on peut installer des widgets ou des dossiers. Pour consulter les notifications, il faut se rendre sur l'écran de gauche. Pour le coup, Nokia a réalisé un gros travail pour personnaliser l'expérience afin de la différencier des interfaces Android traditionnelles. Point de Google Play, à la place vous trouverez le Nokia X. Ce dernier marché d'applications est très light pour le moment, à tel point que Nokia propose des alternatives directement sur son store. On peut donc télécharger Aptoide qui permettra de profiter de quelques milliers d'applications supplémentaires. AptoideMême si Aptoide est souvent synonyme de « black market » ou d'applications piratées, il serait trop réducteur de s'arrêter à ça : Aptoide est un market d'applications qui permet de consulter des dépôts. Qu'est ce qu'un dépôt ? Il s'agit d'un serveur qui contient un ou plusieurs paquets (logiciels ou librairies). Vous pouvez donc ajouter des dépôts qui contiennent des applications piratées, néanmoins cela dépend de vous.Si vous êtes un adapte de Linux, vous connaissez certainement ce fonctionnement bien plus « ouvert » que ce que l'on peut trouver habituellement dans les stores d'applications. Enfin, si vous bidouillez un peu : vous avez toujours la possibilité d'installer les Google Apps (dont le Google Play). L'offre logicielle du Nokia XLe Nokia X est livré avec une multitude d'applications et de jeux. On retrouve notamment WeChat, le service de messagerie instantanée, Facebook, Twitter et des jeux comme Fruit Ninja, Tetris, Bejeweled 2 et Real Football 2014. Vous pourrez les désinstaller pour libérer de la mémoire. Toutefois, cela ne les supprime pas complètement ; pour restaurer ces applications, l'utilisateur peut choisir l'option de réinitialisation d'usine. Justement, la mémoire est bien un des points faibles de ce téléphone : moins de 1 Go de disponible pour vos applications, heureusement que vous gardez la possibilité de lui ajouter une carte micro-SD pour étendre la mémoire. Vous pourrez toujours y loger les applications les plus gourmandes.On retrouve néanmoins le set d'applications de base : les e-mails, les contacts... ainsi que quelques services Nokia comme Here Maps. Justement, ce dernier logiciel de cartographie est une excellente alternative à Google Maps, qui permet de stocker les cartes de continent entier afin de les utiliser « hors-ligne ». On retrouve également la Radio FM, ce qui fera certainement plaisir à certains d'entre vous.Globalement, que penser de l'expérience logicielle offerte par le Nokia ? Elle est incomplète, de base. En effet, le Nokia X est trop léger pour satisfaire la majorité des utilisateurs, il faudra donc installer Aptoide. Et pour ceux qui n'ont pas peur de bidouiller : vous pourrez passer par la case Google Play. Enfin, l'expérience est restreinte par les performances : les applications sont lentes, les lancements se comptent en plusieurs secondes et ne vous attendez pas à faire tourner les jeux les plus gourmands. Je vous rassure, Flappy Birds fonctionne correctement. Communications et GPSCommuniquer avec le Nokia X, ce n'est pas vraiment un problème. Parce qu'à moins d'être un peu warrior, il ne faut pas être accro aux fonctionnalités « smart » de son « phone » pour l'acheter, et l'appareil a besoin d'être efficace en tant que téléphone. Sur ce point, plusieurs choses à remarquer. D'abord, la fonction « swipe » est incluse au clavier du X, ce qui est loin d'être négligeable car, la faute à l'étroitesse et à la réactivité limitée du smartphone, rédiger un SMS n'est pas une sinécure. La possibilité de laisser glisser le doigt d'une lettre à l'autre est donc bien pratique pour ceux qui ont du mal à être précis - gros doigts s'abstenir - et le changement de clavier sera certainement à étudier pour les plus enthousiastes. Reste que pour avoir envoyé quelques messages à l'aide de cet appareil, je vous confirme que tout cela reste très utilisable. Tout en simplicité, l'application, propose d'ailleurs quatre raccourcis : pour les pièces jointes, les smileys, le changement de SIM et, tout à droite, l'envoi (pas évident à reconnaître). Car oui, le Nokia X est double-SIM, et vous laisse choisir au moment de l'envoi la SIM qui dont vous ferez usage. Par ce choix, Nokia s'assure de répondre aux standards de nombreux marchés émergents, tout en offrant une option supplémentaire à ses clients européens ou américains. Côté appels, rien à signaler, on capte bien et le son est clair. Il faut s'habituer au système de décrochage : il faut faire glisser un panneau vers le haut ou le bas pour décrocher ou raccrocher ! Surprenant au premier abord. Et pour le surf web, ne nous leurrons pas, le Nokia X est plus tortue que lièvre. Compatible 3G, il n'ira pas au-delà des 7,2 Mbps en débit descendant, et de 5,76 Mbps en débit montant. De la petite 3G qui nécessitera un navigateur web capable de composer avec cette contrainte. Concernant le GPS, voyez les screenshots des tests réalisés avec notre outil habituel GPS Data. De fait, on subit des délais assez invraisemblables pour faire un fix GPS digne de ce nom (toujours rien au bout de 30 secondes, malgré des tests répétés). La bonne nouvelle ? Here Maps est intégré à ce Nokia, auquel Google Maps et l'ensemble des Google Apps font défaut. L'usage hors-ligne est donc autorisé, et gratuit à l'étranger. Un bon point indéniable pour cet appareil qui n'a rien pourtant d'un assistant GPS à fixer au tableau de bord de votre voiture. Photo et vidéoVous convoitez secrètement le Lumia 1020 pour ses qualités photo, mais n'osez pas franchir le cap de Windows Phone ? Malheur, le Nokia X n'a rien d'un photophone - on se prend évidemment à rêver d'un androphone Nokia doté d'un capteur PureView. Notre petit compagnon se contente d'un malheureux capteur de 3 mégapixels, sans l'indispensable autofocus, sans flash, bref tout nu et pas très performant. Alors oui, pour un 3 mégapixels, il n'a rien de scandaleux, mais il sera tout juste adapté à des publications sur les réseaux sociaux, pour peu que les clichés aient été capturés en plein jour, dans des conditions idylliques.Mais tout de même : pour un petit appareil aussi mal armé, ce Nokia X s'en sort avec les honneurs. Je m'attendais à des résultats bien plus critiques à la lecture de sa fiche techniques, mais finalement, on remarquera qu'à condition de ne pas s'essayer à la macro, les couleurs sont relativement équilibrées, et le niveau de détails acceptable. Pour un capteur de 3 mégapixels, évidemment. La gestion de la luminosité est inexistante, et les situations trop ensoleillées vous mèneront tout droit à des clichés surexposés, et les réglages pour pallier cela sont pratiquement inexistants. Hormis ces paramètres... ce n'est pas si mal. On oubliera la qualité vidéo, limitée  à un maximum de 864 x 480 pixels (FWVGA), pas franchement adaptée pour jouer les Truffaut des années 2010. Quelques exemples de résultats photo ci-dessous, pour la forme :Le gros plan, une mauvaise idée : la mise au point (focale fixe) se fait de toute manière à l'arrière-plan.Avec de la lumière et sans être trop près, le résultat est honorable.Là encore, de (pas trop) près, c'est correct, mais franchement pas détaillé.Avec de la lumière, tout va mieux... sauf quand il y en a trop (arrière-plan) : le résultat est brûlé.PerformancesPour moins de 100 euros, Nokia n'a pas pu faire de miracle. Le Finlandais a opté pour une architecture Qualcomm S4 Play qui utilise un CPU Cortex-A5 double-coeur cadencé à 1 GHz ainsi qu'un GPU Adreno 203. En théorie, comme le montrent les graphiques ci-dessous, il faudrait s'attendre à des performances inférieures à un Galaxy S2 (mars 2011). L'autre point qui fâche, c'est la mémoire RAM : seulement 512 Mo de mémoire vive. C'est le minimum requis pour faire fonctionner Android.Effectivement, c'est assez faible. Nokia a mis en place une architecture de smartphone d'entrée de gamme, ce qui semble plutôt cohérent avec le positionnement produit/prix. Pas de surprise à ce niveau, les performances sont basses, cela se ressent dans l'expérience utilisateur. Malheureusement, Nokia n'a pas eu le réflexe de développer une interface du Nokia X en adéquation avec les performances, et le résultat est plutôt pénible : ralentissements, lourdeur de chargement et tutti quanti. Le conseil à suivre : installer un launcher basique, comme Nova X Launcher que vous pourrez trouver directement sur le Nokia Store. Pour changer de launcher, il suffit de rester appuyé sur le bouton central. Bidouilles et AstucesNokia X Platform System n'est pas un fork d'Android. Contrairement à l'expérience proposée par les tablettes Kindle, Nokia n'a pas verrouillé Android. Le Finlandais a récupéré les sources d'Android Open Source Project, a mis en place ses drivers sur le kernel Linux et a ensuite installé ses applications : son launcher, Here Maps, etc.Il vous est donc possible d'installer Google Apps (Gmail, Google Maps, Google Play) sans trop de difficulté. Je vous invite à consulter ce tutorial, assez simple à suivre. AutonomieNous avons eu la possibilité de tester l'appareil durant une semaine, avec nos applications habituelles. Nous n'avons pas constaté de soucis concernant l'autonomie. Pour information, la capacité de la batterie est de 1500 mAh. Attendez-vous à tenir une journée en utilisation classique. Contrairement à certaines phablettes, vous allez devoir recharger votre Nokia X tous les jours, excepté si vous décidez de couper régulièrement la connexion de données. ConclusionNotre VerdictautonomieUne capacité de batterie de 1500 mAh et pas de soucis particulier. L'autonomie n'est pas extraordinaire, mais elle n'est pas catastrophique non plus.caméraD'autres font mieux pour une centaine d'euros, et c'est d'autant plus décevant que dans le monde de Windows Phone, le Finlandais n'a plus à prouver sa valeur. Un capteur de 3 mégapixels à focale fixe et sans flash, c'est l'assurance de photos de bien maigre qualité, même si, compte tenu de cette fiche technique peu enthousiasmante, la marque limite les dégâts. C'est tout de même trop peu pour espérer en faire un usage quotidien, même pour ceux qui se contentent de poster leurs oeuvres sur les réseaux sociaux.designC'est une affaire de goût ici, mais force est de constater que si Nokia n'a pas donné dans la subtilité, il a joué la carte du fun jusqu'au bout. Des coloris acidulés, un design franc et assumé, et surtout une solidité de conception qui manque souvent aux appareils d'entrée de gamme : le Nokia X est peut-être lourd, mais on ne craindra pas pour sa résistance en cas de chute. Et son format un peu LEGO lui confère un je ne sais quoi d'attachant.logicielL'offre logicielle est incomplète, de base. En effet, le Nokia X est trop léger pour satisfaire la majorité des utilisateurs, il faudra donc installer Aptoide. Et pour ceux qui n'ont pas peur de bidouiller : vous pourrez passer par la case Google Play. Enfin, l'expérience est restreinte par les performances : les applications sont lentes, les lancements se comptent en plusieurs secondes et ne vous attendez pas à faire tourner les jeux les plus gourmands. Je vous rassure, Flappy Birds fonctionne correctement.performancesCette architecture Snapdragon S4 Play couplée à 512 Mo de RAM semble être le minimum requis pour faire tourner Android correctement. "Correctement", c'est une expérience qui n'est malheureusement pas exempte de ralentissements, c'est clairement "lent" aux yeux d'un utilisateur coutumier d'Android. Néanmoins, l'expérience est en adéquation avec le prix du téléphone : moins de 100 euros, pour rappel. Avec un launcher alternatif, les performances seront revues à la hausse, mais tout le monde aura-t-il le réflexe d'en installer un ?écranAvec un tout petit écran, le Nokia X ne mise pas sur un confort ni même sur un affichage exceptionnels. Toutefois, pour le prix de l'appareil, on aurait pu s'attendre de moins bonnes performances, les couleurs affichées étant plutôt satisfaisantes. Un bémol sur la réactivité, qui laisse parfois à désirer. Faut-il craquer pour le Nokia X ? Comme vous avez pu le constater plus haut, les performances sont trop basses pour fournir une expérience utilisateur intéressante, et l'offre du Nokia Store est considérablement pauvre par rapport au Google Play. De plus, l'interface de Nokia est trop lourde pour les performances qu'offrent la machine. Ne vous attendez donc pas à une expérience fluide : les applications prennent quelques secondes à se lancer et les animations sont lentes. Néanmoins, pour moins de 100 euros, ce Nokia X offre une alternative à étudier face aux smartphones chinois, coréens et taïwanais. Avec son design accrocheur, les services Nokia (dont Here Maps), le double-SIM et le slot micro-SD, le Nokia X possède quelques atouts non-négligeables. On peut également se réjouir d'accueillir un nouvel acteur dans l'écosystème Android, et nous aurions tort de l'ignorer. Le Nokia X pourrait faire mouche grâce à la notoriété du Finlandais et grâce à sa force commerciale. * Des coloris acidulés, un design franc et assumé, et surtout une solidité de conception * Du double-SIM et un slot micro-SD * Moins de 100 euros ! * Un Nokia sous Android, nous en avions rêvé ! * Des performances trop basses * Un capteur photo décevant * Un Nokia Store trop pauvre Read more Tourner le dos à la croissance, utopie... Agora Vox Il s'agit d'une notion tellement commune, qu'on l'utilise souvent sans savoir de quoi on parle. La « croissance ». Oui, mais la croissance de quoi ?La croissance désigne en fait la variation positive de la quantité de biens et services produits et échangés au sein d'une économie. Elle se mesure grâce au Produit Intérieur Brut (PIB), représentant la somme totale de ces biens et services échangés sur une période donnée.Difficile à mesurer, notamment dans une économie où les services prennent de plus en plus de place[1], la croissance et son corollaire le PIB ne s'en sont pas moins imposés comme le couple le plus en vue de l'actualité économique de ces dernières décennies.Tout cela a commencé au XVIIème siècle. L'idée dominante chez les économistes est alors que plus une société produit des biens et des services, plus elle augmente le confort de ses membres. Pour Adam Smith par exemple, la recherche de l'abondance par la production et le travail constitue le moyen de renforcer la cohésion sociale en accroissant les liens interindividuels. Emile Durkheim ne dira pas le contraire un siècle plus tard en reconnaissant à la division du travail un rôle de création de solidarité fonctionnelle : chacun a besoin de l'autre pour produire.Le XIXème siècle voit augmenter d'un cran cette glorification de la production. Pour Hegel ou Marx, produire et consommer sont bien plus que des moyens d'augmenter la richesse d'une société. Travailler, inventer, produire, cela permet de s'accomplir, de transformer le monde et l'humanité.Au XXème siècle, avec l'invention de la comptabilité nationale, on va chercher à mesurer tout cela, à estimer le revenu national. C'est dans ce contexte que l'économiste Simon Kuznets réalise en 1934 une première ébauche du PIB. Déjà, pour son inventeur, le PIB est imparfait en ce qu'il ne tient compte que d'une partie des activités et ne dit rien du bien-être. Cela ne va pas empêcher les économistes en charge de réfléchir à la mise en place des comptabilités nationales de travailler sur cette base et d'élaborer des instruments aptes à calculer ce fameux PIB. La suite vous la connaissez. Si l'économie était une religion, croissance et PIB en seraient les dieux.Cet appétit pour la croissance rappelle pourtant de plus en plus l'attirance de Blanche-Neige pour cette belle pomme qui avait pourtant l'air si sucrée.A y regarder de plus près, nombreux sont les indices faisant apparaître qu'il s'agit d'une construction, bancale, qu'on nous impose malgré nous comme étant l'unique solution, le remède à tous nos maux. Loin d'être un remède, nous verrons que la croissance possède un côté obscur, dévastateur, tant au niveau social qu'écologique. Pourtant, si l'on enlève les oeillères dont nous équipe insidieusement la pensée dominante, de multiples chemins apparaissent à côté de cette autoroute grise qu'on nous présente pourtant comme le seul chemin praticable. Et loin de nous ramener à notre point de départ, ces chemins alternatifs semblent bien contourner l'abîme qui commence à se dessiner, là-bas, à l'horizon, dans lequel va se jeter tout droit ce triste ruban de béton sur lequel nous sommes actuellement.Tourner le dos à la croissance ? Utopie idéaliste ou affront salutaire ?La « croissance » : une notion survalorisée aux effets pourtant potentiellement néfastes La « croissance à tout prix » : un mythe façonné par le discours dominant...Le champagne a dû couler à flots. Les chiffres de l'INSEE publiés vendredi 14 février (2014), repris en fanfare par le gouvernement, le confirment : la croissance en France est meilleure qu'attendue pour l'année 2013[2]. Soulagement général au sein du monde politico-économico-médiatique.Pourquoi, de l'avis général, ce retour de la croissance est-il une si bonne nouvelle ? Pourquoi les grands médias, et au-delà, une large part de l'opinion, savourent-ils ces chiffres de l'INSEE avec la délectation qu'on réserve habituellement à une petite sucrerie en fin de repas ? Au-delà, comment la « croissance » est-elle devenue le but ultime de notre société, l'objectif suprême de notre modèle économique ?Car contrairement à ce qu'avance la pensée dominante, il n'y a rien là de très évident. Comprendre comment la croissance est parvenue à s'ériger au rang de déesse laïque est un préalable nécessaire à celui qui cherche à envisager d'autres chemins.La croissance, la plus forte possible, constitue donc l'objectif des économies libérales. Elle est porteuse de toutes les vertus car en son sillage se trouvent emploi et prospérité. Cette vision est imposée comme une évidence et rares sont les médias se hasardant à la remettre en question. Et cette évidence s'est glissée partout, jusque dans les foyers. Faites le test, autour de vous, et ne soyez pas surpris si vos interlocuteurs sont de fervents adeptes de cette religion laïque.Si le modèle néolibéral et sa corollaire la croissance se sont imposés comme l'unique chemin, ce n'est pas du fait de leur faculté à améliorer le bien-être général, ni parce qu'ils constituent un moyen de maintenir des économies stables et prospères, mais parce qu'ils ont bénéficié depuis maintenant des décennies d'un travail d'inculcation insidieux, travail fourni par une élite économico-médiatique à destination des masses.Pierre Bourdieu déclarait en 1996 lors d'une intervention à la Conférence générale des travailleurs grecs à Athènes : «  On entend dire partout, à longueur de journée, - et c'est ce qui fait la force de ce discours dominant -, qu'il n'y a rien à opposer à la vision néolibérale, qu'elle parvient à se présenter comme évidente, comme dépourvue de toute alternative. Si elle a cette sorte de banalité, c'est qu'il y a derrière un travail d'inculcation symbolique auquel participent, passivement, les journalistes ou les simples citoyens et surtout, plus activement, un certain nombre d'intellectuels [3]  ».Comment cela se passe-t-il concrètement ? Depuis la fin de la deuxième guerre mondiale, la pensée libérale et les préceptes qui l'accompagnent (croissance maximum, productivité, compétitivité, flexibilité, etc.) sont présentés à travers les différents médias comme allant de soi, à la manière d'une image subliminale qui viendrait imprimer un message dans l'esprit d'un spectateur à son insu.Ainsi, prenant l'exemple de l'Angleterre, Bourdieu explique-t-il que la politique ultra-libérale de Margaret Thatcher n'est pas née avec elle, mais «  avait été préparée depuis longtemps par des groupes d'intellectuels qui avaient pour la plupart des tribunes dans les grands journaux [4]  ».Ce travail, initié dès la fin de la deuxième guerre mondiale, dans un contexte de lutte contre le communisme se poursuit actuellement. Il n'y a qu'à constater l'enthousiasme exacerbé dont fait preuve la presse française au sujet de l'économie allemande et son modèle libéral.Serge Halimi, dans son ouvrage Les nouveaux chiens de garde [5], vient actualiser les réflexions de Bourdieu. Son livre prend en quelque sorte le relais de l'ouvrage de Paul Nizan, Les chiens de garde, paru en 1932, dont on pourrait citer cet extrait : «  L a pensée bourgeoise dit toujours au Peuple : ''Croyez-moi sur parole ; ce que je vous annonce est vrai. Tous les penseurs que je nourris ont travaillé pour vous. Vous n'êtes pas en état de repenser toutes leurs difficultés, de repasser par leurs chemins. Mais vous pouvez croire aux résultats de ces hommes désintéressés et purs. De ces hommes qui détiennent à l'écart de ces hommes pour lesquels ils travaillent, les secrets de la vérité et de la justice [6] '' » . Remplacez « bourgeoise » par « néolibérale » et vous aurez une idée de la thèse défendue par Serge Halimi.Ces hommes qui « détiennent les secrets de la vérité » sont aujourd'hui omniprésents. Ils hantent les plateaux télés, monopolisent les tribunes de la presse écrite. Ils sont les « experts » invités régulièrement un peu partout pour nous apporter la lumière, leur lumière. Présentés à grands coups de titres universitaires, validant d'emblée l'ensemble de leur propos, ils se croisent de plateau en plateau, inondent nos librairies, avec toujours le même objectif, défendre la pensée libérale. Quiconque souhaiterait acheter l'ensemble de livres publiés par Jacques Attali, ancien président du « Comité pour la libération de la croissance » commandé par Nicolas Sarkozy en 2007, devra, si ce n'est faire un emprunt, du moins posséder beaucoup de place dans sa bibliothèque. Et le travail qui consisterait à lister l'ensemble de ses apparitions télévisées serait sans doute comparable à celui mené par Ludwig von Köchel lorsqu'il a inventorié l'ensemble des oeuvres de Mozart. La figure de Jacques Attali nous est de fait connue, familière, et plus inquiétant, son discours, libéral, aussi.Et Attali n'est qu'un exemple. Ils sont quelques-uns, dans la même veine, à produire en continu via de nombreux médias un discours libéral, depuis maintenant plus de 40 ans. Ils nous chantent « une musique de fond » à laquelle nous sommes habitués à force de l'entendre, et que nous finissons par croire sur parole.Mais pourquoi les Alain Minc, Nicolas Baverez, Élie Cohen et autres Michel Godet, lesdits « experts », agissent-ils ainsi ? Peut-être est-ce parce qu'ils sont convaincus de défendre le « bon » modèle, celui qui éradiquera la misère et apportera le bien être à tous ?Un élément de réponse apparaît quand on découvre les fonctions « cachées » de ces experts, celles qui n'apparaissent pas lorsqu'on les présente au journal télévisé. Au-delà de leurs qualités universitaires présentes ou passées, ils sont en effet pour la plupart membre de conseils d'administration de grandes entreprises, collaborent avec des banques, conseillent des fonds spéculatifs. Juges et parties en quelque sorte. Elie Cohen par exemple, présenté en tant que « Directeur de recherche au CNRS », est également administrateur d'Orange, de Steria, du Groupe « Pages jaunes ». Son compère Christian de Boissieu, « professeur à Paris 1 », est ou a été administrateur de la banque Hervet, membre du conseil stratégique du cabinet d'Ernst & Young, membre du conseil de surveillance de la banque Neuflize OBC, conseiller économique du hedgefund HDF Finance, conseiller du Crédit agricole, administrateur du fonds d'investissement Pan Holding, etc. Pour le téléspectateur lambda, il est simplement « professeur à Paris 1, qui doit avoir raison au vu de son titre universitaire ».En résumé, ces experts ne défendent pas le modèle qu'ils croient positif pour le bien-être général, mais le monde auquel ils appartiennent, les entreprises grâce auxquelles ils s'enrichissent. Ils monopolisent l'espace médiatique, au détriment des intellectuels ou politiques ne partageant pas ces points de vue. Quelques chiffres explicitent ce constat : entre 2002 et 2007, les économistes Frédéric Lordon et Jean Gadrey, au point de vue disons « divergent », ont été invités 32 fois à eux deux à la radio et à la télévision. Sur la même période, Jacques Attali totalise 572 passages[7].Voilà pourquoi il y a neuf chances sur dix que lors de votre prochain repas de famille votre voisin de table soit persuadé que la logique libérale est la seule envisageable, et qu'il est évident qu'il faille toujours plus de croissance si l'on veut sortir du marasme. Cependant, nous l'avons vu, ce n'est pas parce que cette logique est à même d'apporter prospérité et stabilité qu'elle est tant vantée, mais bien parce qu'elle sert les intérêts d'un petit groupe de personnes, une oligarchie qui dispose de toute la place qu'elle veut dans le paysage médiatique, et donc de l'oreille du public. Chaque médaille a son revers. Et à y regarder de plus près, derrière l'éclat des préceptes néo-libéraux, notamment la course à la croissance, semble se dresser une réalité bien plus obscure. Et si la croissance n'était pas cet ange salvateur qu'on nous vante pourtant ? ... Présentant pourtant tous les caractères d'un mirageOn n'en parle pas, ou peu, mais la croissance a ses revers, ses conséquences néfastes. Loin d'engendrer uniquement emploi et prospérité, elle peut laisser dans son sillage une empreinte noire, marquée par la destruction des ressources naturelles d'une part, la création d'inégalités d'autre part. Croissance et environnement : l'impossible équationCroissance et environnement ne font pas bon ménage. A la fin des années 60 déjà, le Club de Rome, fondé par l'italien Aurelio Peccei, tirait la sonnette d'alarme sur les conséquences néfastes de la recherche de la croissance à tout prix. Le rapport rédigé par les chercheurs du Club, The limits to growth [8] , devenu un best-seller mondial, évoque pour la première fois les dangers écologiques de la croissance économique et démographique que connaissent les économies libérales à cette époque.Il met en garde sur les limites physiques de la croissance, qui seront bientôt atteintes, et sur la nécessité d'équilibrer croissance économique et démographique avec les ressources disponibles. Pour cela, il faut abandonner les politiques à court terme, et oser engager des actions qui ne porteront leurs fruits que dans 50 à 100 ans.Lors de la présentation du rapport en 1972 à Washington, Dennis Meadows déclarait : «  chaque année perdue dans la mise en oeuvre d'une nouvelle politique rendra la transition nécessaire beaucoup plus difficile et diminuera nos chances de la réaliser [9]. »Mais l'électeur, l'industriel, et donc le politique sont « court-termistes », et rien ne fût entrepris. Le changement appelé par le Club de Rome ne vint pas, et les questions posées par Dennis Meadows et ses collègues restent malheureusement plus que jamais d'actualité.Une équation simple permet de poser une partie du problème. Croissance rime avec production, production rime avec énergie, et malheureusement, aujourd'hui, énergie rime avec pétrole et charbon. Comment serait-il possible de produire toujours plus lorsqu'on utilise des ressources non renouvelables de moins en moins disponibles ? D'aucuns répondront qu'il n'y a pas de soucis à se faire, car bientôt « ils » vont trouver une solution pour remplacer les énergies fossiles. En attendant, le charbon reste l'énergie de l'avenir, tandis qu'on s'évertue à exploiter les dernières gouttes de pétrole, sous forme de sable bitumineux ou de gaz de schiste, à des couts environnementaux et sociaux de plus en plus importants.Imaginez-vous dans une voiture lancée à pleine vitesse. A quelques centaines de mètres se dresse un mur. Diriez-vous à vos passagers « il n'y a aucun souci à se faire, quelqu'un ou quelque chose va bien arriver sous peu pour nous sortir de cette situation quelque peu délicate », ou alors chercheriez-vous à faire changer la direction de la voiture afin d'éviter l'obstacle ? La question peut paraître stupide, pourtant, actuellement, nous choisissons la première solution.La production et la croissance des pays du Nord coûtent cher. Elles se paient au prix de milliers d'hectares de forêt boréale canadienne saccagée pour l'exploitation des sables bitumineux, au prix de la vie des 30 millions d'habitants du delta du Niger[10], au prix des innombrables nappes phréatiques polluées par le procédé de fracturation hydraulique utilisé pour l'exploitation des gaz de schiste. Par-dessus tout, les bouleversements climatiques induits en grande partie par les émissions carbone liées à l'activité industrielle mondiale, moteur de la croissance, sont en train d'impacter durablement l'ensemble des écosystèmes et le climat de la planète avec les conséquences que l'on connaît.Ce qui marchait hier ne peut plus fonctionner aujourd'hui : «  La croissance des Trente Glorieuses s'est faite à crédit, basée sur des ressources non renouvelables comme le charbon et le pétrole. Quand des milliards d'êtres humains supplémentaires se lancent à leur tour dans la course au développement, la Terre s'emballe, le prix des matières premières s'envole, les terres agricoles se font rares et les dégradations de l'environnement s'amplifient, parfois irrémédiablement [11] ».Car l'incompatibilité entre la croissance telle que nous la concevons actuellement et la conservation de notre environnement ne se cantonne pas aux problèmes liés à l'exploitation ou l'utilisation des énergies fossiles. De tous les côtés, sous la pression des modèles capitalistes productivistes cherchant encore et toujours la croissance, les indicateurs sur l'état de conservation des ressources naturelles virent au rouge.Sous la pression de l'élevage industriel en Amazonie, de la culture des palmiers à huile et de l'exploitation du bois pour la fabrication de pâte à papier en Indonésie, les forêts du monde reculent. Selon l'Organisation Mondiale pour l'agriculture et l'alimentation (FAO)[12], 300 millions d'hectares de forêt primaire sont partis en fumée depuis 1990, soit l'équivalent de la surface de l'Argentine. D'après le Programme des Nations-Unies pour l'Environnement (PNUE), près de la moitié de forêt de Sumatra, en Indonésie, a disparu entre 1985 et 2007[13]. La course à la production ne serait-elle pas en train de nous attirer vers les écueils qu'aurait connus l'île de Pâques, dépeuplée à partir du XVIIème siècle à cause d'une déforestation massive ?On pourrait allonger sans fin la liste des ressources naturelles mises en péril à l'échelle mondiale du fait de l'activité économique. De la surexploitation de quasiment tous les stocks de poissons aux pollutions liées à l'agriculture conventionnelle (rejets de nitrates issus des déjections animales, de phosphore issus des engrais), en passant par la monopolisation des ressources d'eau douce par l'agriculture en Afrique et en Asie[14], etc. tout semble indiquer que le modèle que nous suivons est trop impactant pour être viable à long terme. C'est en substance ce qu'annonçait en 1974 le philosophe André Gorz : « Il n'y a pas assez de ressources minérales, ni même d'air, d'eau et de terres, pour que le monde entier puisse adopter ''notre'' façon ravageuse de produire et de consommer [15] .  »Tout devient rare. Les terres sont monopolisées pour la production de viande à destinations des pays industrialisés, au détriment des productions agricoles locales et des forêts essentielles à l'alimentation de milliards d'êtres humains. Le cuivre, l'or, l'argent, le zinc, les terres rares, l'uranium ne pourront pas indéfiniment être extraits en quantité toujours croissante, à l'image des ressources fossiles.Croissance et environnement ne font pas bon ménage. Le problème est que nous sommes entièrement dépendants de notre environnement, dès lors, chaque point de croissance « gagné » dans quelque Etat du monde revient à un coup de scie supplémentaire porté à la branche sur laquelle nous sommes assis. Peuvent en témoigner les 1,6 milliards de personnes, soit une personne sur cinq, à l'échelle de la planète, dont la survie dépend des forêts. Les laissés-pour-compte de la croissanceEt l'homme dans tout ça ? Car la croissance ne se révèle pas seulement une dangereuse prédatrice des ressources naturelles ; sa faux possède aussi un tranchant destiné au domaine social.On entend dire allègrement que la croissance constitue le seul moyen de lutter contre la pauvreté. Si effectivement, comme ça a été le cas en Chine par exemple, une économie affichant une croissance élevée est plus à même de faire sortir de la pauvreté une part importante de la population, il apparaît qu'au-delà du taux même de croissance, un autre indicateur est primordial : celui du niveau de redistribution des richesses produites. La taille du gâteau n'est pas tout, il reste à voir comment on le découpe.Au début du XXèmesiècle, en France et aux Etats-Unis, le 1 % le plus riche de la population captait entre 15 % et 20 % du revenu total du pays[16]. Ces inégalités vont être aplanies suite aux deux guerres mondiales et aux politiques fiscales ambitieuses mises en place par Roosevelt notamment en ce qui concerne les Etats-Unis. Puis, soufflé par les Thatcher et autres Reagan, un vent libéral s'abat sur certains pays d'Europe et les Etats-Unis. Les impôts pesant sur les plus hauts revenus s'abaissent. Vingt ans plus tard, le 1 % le plus riche des Américains capte à nouveau autant de richesses qu'en 1915. Cela veut dire concrètement que la croissance ne profite pas à tous au même niveau, les plus riches en captant l'essentiel des fruits.Plus grave, certaines parts de la population peuvent voir leurs revenus décroître, malgré une économie en croissance. Citons l'Allemagne par exemple, ce modèle vers lequel il faudrait tendre à en croire la pensée dominante. L'Allemagne et sa croissance moyenne bien supérieure à la nôtre. Depuis 1996, le dixième des salariés les moins bien payés n'a cessé de voir son salaire réel (soit le salaire une fois l'inflation déduite) reculer : en 2009, il était à un niveau inférieur de 20 % à ce qu'il était en 1996. Dans le même temps, les 20 % des salariés les mieux payés ont vu leur salaire réel progresser de plus de 5 %[17].Quittons l'Europe et rejoignons l'Inde, et sa croissance (il est vrai en ralentissement), atteignant 5 % en moyenne depuis 1991. Malgré ce chiffre plutôt flatteur, 356 millions d'Indiens, soit près d'un tiers de la population, vivaient sous le seuil de pauvreté en 2010[18]. Pourquoi ?Il s'avère que la croissance économique seule ne suffit pas à faire reculer massivement la pauvreté. L'Etat a son rôle à jouer, au niveau de la redistribution notamment, de la création et mise en oeuvre de systèmes de santé, de retraite, etc. En Inde, les recettes fiscales captent seulement 10,4 % du Produit intérieur brut, ce qui n'est pas suffisant pour permette au gouvernement de mener une politique sociale efficace. Les dépenses publiques de santé, par exemple, sont négligeables et constituent 1,2 % du PIB. «  Avec six docteurs et neuf lits d'hôpitaux pour 10 000 habitants, l'Inde a la mortalité infantile la plus élevée au monde et une terrible mortalité maternelle : 200 décès de mères pour 100 000 naissances. Les fonds alloués à l'éducation n'épousent pas davantage la courbe de la croissance. Pire, ils déclinent, passant de 4,26 % du PIB en 2000 à 3,1 % en 2012. Or, près d'un tiers de la population reste analphabète [19]  ». L'inde constitue peut-être l'exemple le plus flagrant que la croissance seule, même importante, ne constitue en rien un gage de prospérité et de bien-être de la population.«  Il n'y a pas de lien évident entre la croissance et la répartition de ses fruits au sein d'une société  », déclare Camille Landais, chercheur au Stanford Institute for Economic Policy Research[20]. Voilà qui met à mal bien des idées reçues sur notre ange salvateur.Une idée imposée par la pensée dominante non fondée sur des considérations liées au bien-être général, des conséquences dévastatrices sur l'environnement mondial, un manque cruel d'égalité dans la répartition de ses fruits. Et si, pour paraphraser le film « L'an 01[21] », au lieu d'un pas en avant, nous faisions un pas de côté ? Tournions la tête dans une autre direction ? Ne découvririons-nous pas qu'à côté de l'autoroute « croissance » se dessinent une multitude d'autre chemins encore trop peu explorés ? Tourner la page de la croissance telle que nous la connaissons Nous l'avons vu, la croissance telle qu'elle est conçue et recherchée actuellement, ainsi portée sur les flots d'un courant néolibéral, ne semble pas en mesure de nous conduire durablement vers le bien-être. Mais après tout, peut-être ce modèle est-il le moins pire ? L'équivalent économique de la démocratie, «  le pire des régimes à l'exception de tous les autres  » selon la fameuse phrase de Winston Churchill ?Pas si sûr. Il semble bien que les alternatives soient là, à portée de mains. Changements d'indicateurs, mise en oeuvre de nouveaux types d'économies, les diverses alternatives envisageablesLa fondamentale question des indicateursRegarder dans une autre direction, oui, mais laquelle ? A la base, tout est question d'indicateurs. Ils fixent la direction vers laquelle tendre. Changer d'indicateur, c'est changer d'objectif. Il semble aujourd'hui primordial de faire descendre le PIB de son piédestal.Nos sociétés productivistes droguées à la croissance n'ont d'yeux que pour les évolutions du PIB, indicateur dominant du débat économique. Lui seul actuellement reflète la santé d'une économie d'un pays.Le PIB correspond à une certaine vision de la « richesse » d'une nation : une vision quantitative, axée uniquement sur la quantité de biens et services échangés sur une année. Quatre limites du PIB en tant qu'indicateur sont couramment invoquées.En premier lieu, cet indicateur met l'accent sur la quantité, non sur la qualité. Jean Gadrey fait remarquer qu'aux yeux du PIB, un kilo de fraises bio vaut la même chose qu'un kilo de fraises qui a parcouru des milliers de kilomètres en avion, qui contient des pesticides, et qui a été élevé dans des conditions de travail indignes[22]. Le PIB est ainsi incapable d'intégrer des notions de qualité, de durabilité environnementale.Ensuite, le PIB est un tiroir dans lequel on fait entrer certaines choses, et duquel on en exclut d'autres. N'entrent pas en compte dans son calcul les travaux domestiques, l'éducation des enfants par les parents au foyer, le bénévolat réalisé dans les associations, les activités politiques et citoyennes, etc., soit tout un pan de nos activités quotidiennes, vitales au fonctionnement de notre société.Troisième point, le PIB n'a cure de la répartition de ce qu'il mesure, ne tient pas compte des inégalités au niveau de la production et de la distribution des richesses. Que la production soit réalisée par une grande ou une petite partie de la population ne l'affecte pas. Qu'un seul acteur économique produise « 100 », et que 99 autres ne produisent rien revient au même, pour le PIB, que 100 acteurs produisent chacun « 1 ». De la même manière, que les richesses produites soient partagées entre tous ou accaparées par une minorité, aux yeux du PIB, c'est bonnet blanc et blanc bonnet. Seule compte la taille du gâteau, peu importe qui le mange.Enfin, le PIB ne connaît pas de « moins », il ne tient pas compte des ressources prélevées nécessaires à la production. Si l'on doit abattre une forêt pour produire « 100 », seul ce chiffre de « 100 » sera retenu pour le calcul du PIB. Pire, le PIB se nourrit des impacts sociaux et environnementaux. Qu'une rivière ou une plage soit polluée par des rejets liées aux activités agricoles, si l'on engage des frais pour dépolluer, cela fera grimper le PIB.Le PIB seul n'est pas un indicateur apte à renseigner sur le bien-être d'une population, d'un pays. Mais alors, par quoi le compléter, voire le remplacer ?Il existe de nombreux indicateurs alternatifs, développés ces dernières années. Plutôt que de les lister tous, il convient avant tout de poser les bonnes questions : qu'est-ce que la « richesse » ? qu'est ce qui compte vraiment dans sa mesure, qui peut en décider et comment le mesurer ? La réflexion débute à peine, mais quelques pistes de réponse ont déjà été avancées[23].Qu'est ce qui compte ? Faire entrer dans la balance tout ce qui permet à une société de s'inscrire dans la durée : patrimoine naturel et cohésion sociale devraient avoir leur place. Pour le patrimoine naturel, mesurer les « services rendus par les écosystèmes » est une piste suivie par certains économistes, attribuant il est vrai une vision utilitariste à notre environnement, ce qui peut ne pas faire consensus. Une autre option serait de mesurer la qualité et la quantité des éléments composant ce patrimoine (nombre d'hectares de forêt, qualité des eaux, etc.). Le débat reste ouvert.Sur l'aspect social, l'Indice de Santé Sociale (ISS) créé en France par le Réseau Associatif d'Alerte sur les Inégalités constitue une piste intéressante. Il regroupe 14 indicateurs et tient compte de différents aspects relatifs au travail, au revenu, à l'éducation, à la santé, au logement, à la sécurité ou encore au lien social et interindividuel. A titre d'exemple, en France, si l'on se base sur le PIB par habitant, il vaut mieux vivre en Ile de France ; c'est là qu'il est le plus élevé. Lorsqu'on regarde la même situation à travers le prisme de l'ISS, le Limousin l'emporte haut la main, l'Ile de France n'arrivant qu'en 17ème position sur les 22 régions métropolitaines[24].Qui serait apte à décider de ce qui compte et de ce qui ne compte pas ? Là encore quelques idées ont été avancées. Celle du collectif FAIR[25], «  Forum pour d'autres indicateurs de richesse  », est d'impliquer les citoyens. Les nouveaux indicateurs de richesse ne devraient pas être uniquement affaire de spécialistes, mais résulter de réflexions collectives impliquant citoyens et experts, sociologues, climatologues, biologistes, économistes, etc.Enfin, comment mettre en oeuvre une mesure impliquant des critères sociaux, environnementaux, économiques, etc. ? Le PIB est en ce sens pratique en ce qu'il mesure des choses reposant sur une unité de mesure commune (le prix, l'argent). Dès lors on peut additionner le prix des biens et des services entre eux et parvenir facilement à déterminer un niveau de PIB. C'est plus délicat lorsqu'il s'agit de rendre compte des évolutions du patrimoine naturel ou du climat social. Diverses solutions seraient envisageables, visant par exemple à ramener divers indicateurs sociaux, environnementaux, économiques à une même mesure (par exemple en leur attribuant un nombre de « points ») et à pondérer l'importance de chacun d'entre eux. L'indicateur dit de « l'Epargne nette ajustée » développée par la Banque mondiale est à ce titre intéressant en ce qu'il ne raisonne pas en termes de flux, mais de capital[26]. Il prend en compte l'épargne totale d'une Nation, y ajoute les dépenses d'éducation, en retire les dégradations du capital naturel, etc. Il cherche ainsi à prendre en compte les capitaux humains, sociaux, environnementaux, etc.Si cette approche comporte encore bien des biais (quelle « valeur » attribuer à un actif environnemental, un hectare de forêt par exemple ? Est-ce pertinent de pouvoir compenser l'érosion du capital environnemental par des gains au niveau du capital social ?), elle a le mérite d'exister, et montre que des réflexions sont en marche à grande échelle.Les questions sont encore nombreuses, la transition débute à peine : «  Le choix de nouveaux indicateurs, au terme de délibérations publiques dont nous avons plus que jamais besoin, est désormais urgent. C'est le premier pas vers l'abandon de l'obsession de la croissance et sur ''les chemins de la transition 19'' ». Vers d'autres économiesChanger d'indicateur et donc d'objectif est essentiel en préalable à toute démarche visant à s'extraire de l'emprise néfaste de la croissance. Mais ensuite ? Quel modèle adopter ?L'économie actuelle est dite « linéaire » : on extrait des matières premières, on fabrique des produits qui sont vendus aux consommateurs, qui les jettent au bout d'un certain temps. Pour les raisons évoquées plus haut (épuisement des matières premières, pollution, etc.), ce schéma n'est pas viable et ne saurait fonctionner encore longtemps. A cela il existe une solution, l'économie dite « circulaire », visant à optimiser et réutiliser tout au long de la chaîne de production et de consommation les ressources matérielles et énergétiques, sur le modèle de «  rien ne se perd, rien ne se créé, tout se transforme   ».Cela peut consister par exemple à mobiliser plusieurs acteurs d'un même territoire, en créant une synergie, afin par exemple que les déchets ou rejets de l'un servent de matière première à l'autre.Au sein du port danois de Kalundborg, la plus grande centrale électrique du pays vend de la vapeur à la raffinerie de pétrole voisine, laquelle en retour lui vend ses eaux usées à des fins de refroidissement. La centrale fournit également de la vapeur à la municipalité pour alimenter son réseau de chauffage urbain ainsi qu'à d'autres entreprises voisines qui en ont besoin. Ce type de fonctionnement génère moins de croissance que si chacun devait se débrouiller tout seul pour trouver sa vapeur, son eau de refroidissement, etc. Cela dit, c'est la collectivité qui y gagne.Produire autrement est une chose, consommer autrement en est une autre, les deux devant aller de pair.C'est là qu'intervient l'économie de « fonctionnalité », conceptualisée par Walter Stahel au milieu des années 90. Il s'agit de développer non plus « l'achat » des biens, mais leur utilisation dans le cadre d'une prestation de service. En d'autres termes, l'entreprises ne vend plus ses produits, mais les met à disposition de l'utilisateur pour les reprendre en fin de vie. La firme Xerox effectue 75 % de son chiffre d'affaire de cette façon. Elle met à disposition des entreprises des photocopieurs, puis les récupère lorsqu'ils ne fonctionnent plus. Cela contribue à allonger la durée de vie des produits en luttant contre l'obsolescence programmée et favorise le recyclage. Xerox a ainsi simplifié les composants de ses appareils, afin de pouvoir les réutiliser plus facilement. Là encore, ce n'est pas bon pour la croissance. Jeter son imprimante pour en racheter une neuve tous les deux ans serait préférable aux yeux de notre indicateur favori. Mais l'utilisateur et le citoyen ont tout à y gagner.Multiples sont les initiatives allant dans cette direction. Un dernier chiffre pour convaincre de l'intérêt du réemploi : la société anglaise Mazuma mobile propose un service de vente de téléphones portables reconditionnés. Ça n'a l'air de rien. Cependant, d'après une étude menée par la fondation britannique Ellen Mac Arthur, si la moitié des téléphones portables utilisés en Europe était collectée pour être réutilisée ou reconditionnée, 1 milliard de dollars de matières premières et 60 millions de dollars d'énergie seraient économisés chaque année[27].Encore trop petites pour remettre en cause la course globale à la consommation, ces idées et initiatives ne répondant pas à une logique de « croissance » prouvent que faire autrement est possible, sans « revenir à la bougie » comme se plaisent à le répéter les détracteurs de ces idées nouvelles, desquels fait sûrement partie votre voisin de table de tout à l'heure. Vers une prospérité sans croissanceC'est l'argument principal des pro-croissance et autres téléspectateurs passifs des émissions politico-économiques télévisées : sans croissance il n'y a que le chaos, le chômage, la pauvreté. On pourrait leur demander leur avis sur la situation sociale indienne malgré une croissance plus de trente fois supérieure à la nôtre sur ces dernières années, mais ce serait un peu facile, la réponse mérite d'être davantage creusée.Il convient de présenter tout d'abord le point de vue des tenants d'une « croissance verte », car il s'agit là d'une solution alternative à la conception que nous avons de la croissance, basée sur un modèle capitaliste productiviste.Selon l'OCDE, «  la croissance verte consiste à favoriser la croissance économique et le développement tout en veillant à ce que les actifs naturels continuent de fournir les ressources et les services environnementaux sur lesquels repose notre bien-être. Pour ce faire, elle doit catalyser l'investissement et l'innovation qui étaieront une croissance durable et créeront de nouvelles opportunités économiques [28] .  » Il s'agit par exemple de verdir les investissements en orientant les fonds vers des projets « durables » et respectueux de l'environnement, de rechercher d'autres sources énergétiques en privilégiant les énergies renouvelables, etc. La logique reste bien celle de croissance, de développement économique. Mais « vert ».Cette démarche est cependant mise à mal par certains économistes et écologistes. Pour Tim Jackson, auteur de la «  Prospérité sans croissance [29]  » , c'est une erreur que de chercher à maintenir notre modèle de développement actuel au prétexte que nous parvenons à augmenter notre efficacité de production, et donc à prélever moins de ressources naturelles et consommer moins d'énergie. Il constate que ces dernières années, nous avons effectivement diminué la quantité de ressources utilisée par unité produite, mais la production allant en augmentant, les quantités absolues de ressources consommées croissent[30].Hervé Kempf, journaliste au Monde et auteur de «  Pour sauver la planète, sortez du capitalisme [31] », le rejoint sur ce point. La logique actuelle, visant un « toujours plus », ne mène nulle part. C'est cette logique productiviste même qu'il faut changer et non les procédés et technologies utilisés. En résumé, construire des éoliennes n'est pas une solution dans la mesure où l'on ne cherche pas à réduire notre consommation d'électricité.Est-il alors possible de tourner franchement le dos à la croissance tout en maintenant voire améliorant notre qualité de vie ?C'est l'avis de Jean Gadrey, professeur émérite à Lille 1. Au toujours plus, il préfère le toujours mieux, et cela change tout[32].Il récuse tout d'abord l'idée selon laquelle la croissance est indispensable pour résorber le chômage. Ce qui manque aujourd'hui, ce sont les ressources naturelles, alors que le travail humain, lui, et surabondant. Beaucoup de travailleurs sur un marché où les ressources se font rares, où l'on n'arrive plus à produire à des coûts raisonnables du fait de la rareté des matières premières, voilà qui créé du chômage.A contrario, la transition écologique est créatrice d'emplois. Sans entrer dans les détails, le scénario élaboré par l'association NégaWatt, qui vise à éviter 65 % de la demande d'énergie en France d'ici 2050 grâce à la sobriété et l'efficacité énergétiques, table sur la création de 700 000 emplois dans les 20 ans à venir[33]. Remplacer l'agriculture conventionnelle, gourmande en chimie, par une agriculture biologique de proximité nécessiterait 30 % à 40 % d'emplois supplémentaires dans ce secteur29.Loin d'être une stagnation ou un retour en arrière, abandonner la croissance nous permettrait de nous propulser en avant. Remplacer le nucléaire ou le charbon par des énergies renouvelables, effectuer la rénovation thermique de millions de logements, réorienter l'agriculture vers des méthodes agro-écologiques, mettre en oeuvre à grande échelle des politiques de sobriété, etc., voilà un vaste programme qui n'a absolument rien d'un retour en arrière.Abandonner la croissance permettrait de vivre mieux, de manger mieux, de respirer mieux. Et ce dernier point n'a rien d'une métaphore, en témoignent les nuages de pollution issus de l'activité industrielle envahissant certaines mégalopoles chinoises, voire même des temps à autres les grandes villes françaises.La logique productiviste qui nous est imposée malgré nous ne conduit nulle part, ses effets négatifs se font déjà sentir, au niveau social comme environnemental. Peu nombreux sont ceux qui mettent encore en doute la réalité du changement climatique, accéléré par les émissions liées à l'industrie, aux transports, à l'élevage industriel. «  Il faut croire ce que nous savons  » déclare Yann Arthus Bertrand au sujet du changement climatique en conclusion de son film « Home[34] ». Il aurait pu ajouter « et agir en conséquence ».Agir en conséquence semble devoir inévitablement passer par ce virage important, pas un demi-tour non, pas un retour en arrière, mais un virage vers une logique nouvelle, valorisant le bien-être et l'environnement en lieu et place de la production et de l'échange de biens et services. Nous avons tout à y gagner.A Jean Gadrey de conclure : «  La perspective de bien vivre dans une société solidaire est-elle moins enthousiasmante pour la plupart des gens que celle qui leur a été offerte ces dernières décennies d'accumuler toujours davantage de biens matériels ? 27  ». Posons-nous la question. Guillaume Cottarel - Avril 2014Source : Tourner le dos à la croissance, utopie idéaliste ou affront salutaire ? [1]La croissance doit être distinguée de l'inflation : un médecin augmente sa consultation de 5 euros, est-ce parce qu'il soigne mieux ou passe plus de temps avec ses patients, ou est-ce juste pour gagner plus à la fin de la journée ? Distinguer ce qui relève de l'inflation de ce qui constitue une réelle « croissance en volume », représentant une hausse de qualité ou quantité constitue une première difficulté à la mesure de la croissance.[3]Pierre Bourdieu, Intervention à la Conférence générale des travailleurs grecs , Athènes, 1996, in Contre Feux, raisons d'agir, 16ème édition, 2012, 125 p.[5] Les Nouveaux Chiens de garde , Liber-Raisons d'agir, novembre 2005, 160 p[6] Les Chiens de garde , Rieder, Paris, 1932[7] Les Nouveaux Chiens de Garde (film), Gilles Balbastre et Yannick Kergoat (2012)[8]Limits to Growth (1972).Donella H. Meadows, Dennis L. Meadows, Jorgen Randers and William W. Behrens III, (1972)[9]Voir DERNIÈRE ALERTE 40 ans après les limites à la croissance, Arte, 2013[10] Depuis 1958, plus de 13 millions de barils de pétrole, soit 2 milliards de litres, ont été déversés dans le Golfe du Niger. Golfe du Niger : l'autre marée noire, Porcher T., L'express, juillet 2010[11]Domergue M, Le retour de la rareté , Alternatives Economiques, hors-série n°97, 3ème trimestre 2013.[12] Williams, 2002 ; Les forêts et l'évolution du monde moderne , FAO, 2010[13] The Last Stand of the Orangutan , PNUE, 2007[14]Le secteur agricole ponctionne 84% de l'eau douce en Afrique, 88% en Asie du Sud et 81% en Asie du Sud Est et Océanie. Domergue M., Le retour de la rareté , Alternatives Economiques, hors-série n°97, 3ème trimestre 2013[15]Gorz A., Ecologie et Politique , Galilée, 1975[16]Legay S., Le retour d'une société de rentiers , Alternatives Economiques, hors-série n°97, 3ème trimestre 2013[17] Workplace Heterogeneity and the rise of West Germany Wage Inequality Card , Heining J., Kline P., in Alternatives Economiques, hors-série n°97, 3èmetrimestre 2013[18]Buissoi J., Près d'un Indien sur trois vit sous le seuil de pauvreté , Le Monde, Mars 2012[19]Fiquet B., Inde : Une croissance sans développement , Novembre 2013[20]Interview parue dans Alternatives Economiques, hors-série n°97, 3ème trimestre 2013[21]L'an 01, film réalisé par Jacques Doillon, Gébé, Alain Resnais et Jean Rouch, 1973[22] Adieu à la croissance. Bien vivre dans un monde solidaire , Gadrey J., Les petits matins, 2010[23]Méda D., Faire bonne mesure , in Alternatives Economiques, hors-série n°97, 3ème trimestre 2013 ; INSEE 2013[24]Grimault J., Ce que le PIB ne dit pas de la France , in Alternatives Economiques, hors-série n°97, 3ème trimestre 2013 ; INSEE 2013[26]Thiry G., Indicateurs alternatifs au PIB. Au-delà des nombres. L'Epargne nette ajustée en questions , Emulations n°8, 2010[27] Vers une économie circulaire , Fondation britannique Ellen Mac Arthur, janvier 2012[28] Vers une croissance verte : suivre les progrès. Les indicateurs de l'OCDE, OCDE, 2012[29] Prospérité sans croissance. La transition vers une économie durable , Tim JacksonEd. De Boeck, 2010, 250 p.[30]Entretien réalisé dans Alternatives Economiques n°323, avril 2013[31]Kempf H., Pour sauver la planète, sortez du capitalisme  ; Coll. L'histoire immédiate, éd. du Seuil, 2009, 154 p.[32]Voir « Il faut mettre fin à la course à la productivité », entretien réalisé dans Alternatives Economiques, hors-série n°97, 3ème trimestre 2013[33] Manifeste NégaWatt. Réussir la Transition écologique , coll. Domaine du possible, Actes Sud, 2012[34] Home ,écrit et réalisé par Yann Arthus-Bertrand, produit par Luc Besson 2009  Read more Que vaut un iPad 4 en 2014 ? [iGen] Mac Generation Après trois ans de service, Apple a finalement retiré de sa boutique l'iPad 2 au profit d'un modèle plus performant . La deuxième génération de tablette est sortie à l'origine en mars 2011, elle apportait de la finesse et surtout beaucoup de puissance. Pour succéder à ce modèle vieillissant, le constructeur a choisi l'iPad 4, sorti en novembre 2012. Avec son connecteur Lightning et son écran Retina, il constitue une mise à jour majeure par rapport à l'iPad 2. De fait, il constitue un achat crédible à l'heure actuelle, en face d'un iPad Air qui a énormément gagné en finesse et en poids, sans enterrer pour autant l'ancienne tablette. Pour cent euros de moins qu'un iPad Air, l'« iPad avec écran Retina », comme l'appelle Apple, constitue-t-il un bon choix aujourd'hui ? Naturellement, la réponse n'est pas immédiatement positive ou négative, elle dépend de vos besoins et de votre utilisation. On fait le point pour vous aider... 100 EUR de moins et 200 g de plus 389 EUR, c'est le prix d'appel de l'iPad avec écran Retina. À ce tarif, vous n'aurez que 16 Go de stockage et une version avec Wi-Fi uniquement. C'est néanmoins précisément 100 EUR de moins que l'iPad Air qui est vendu, pour les mêmes caractéristiques, 489 EUR. La version cellulaire, elle aussi bloquée à 16 Go, est vendue 509 EUR soit, encore une fois, 100 EUR de moins que l'iPad Air 16 Go Wi-Fi + Cellular. En d'autres termes, Apple a repris une vieille habitude en ce début d'année : garder l'ancienne version d'un produit et le vendre moins cher pendant un an supplémentaire. Les iPad constituaient une exception, puisque depuis la sortie de l'iPad 3 au printemps 2012, l'iPad 2 n'avait jamais été remplacé pour ouvrir la gamme. En l'état, Apple reprend une stratégie qu'elle avait déjà mise en place pour l'iPod touch avec l'ancienne génération toujours vendue aux côtés de la dernière génération. L'iPad Air et l'iPad 4 partagent de nombreux points communs. Ils disposent tous les deux d'un écran 9,7 pouces Retina d'excellente qualité, ils ont tous les deux le même connecteur Lightning et la même autonomie et ils ont quasiment les mêmes capteurs photo à l'arrière et à l'avant. Ils se différencient naturellement sur d'autres points et en premier lieu sur les performances. Alors que l'iPad sorti en 2012 est animé par une puce Apple A6X déjà puissante, l'iPad Air bénéficie des avancées menées par le constructeur avec une puce A7 plus rapide encore et surtout 64 bits. Caractéristiques techniques des quatre dernières générations d'iPad -- Cliquer pour agrandir Sur le papier, les différences de performances sont énormes, puisque nous avions mesuré dans notre test des écarts qui pouvaient aller du simple au double entre l'iPad 4 et l'iPad Air. La tablette la plus récente est incontestablement plus puissante. Même si ce sera peut-être un problème dans deux ou trois ans pour l'iPad 4, à l'heure actuelle la différence est minime en usage courant. À moins d'avoir de gros besoins, de chercher les meilleures performances et les meilleurs graphismes dans les derniers jeux par exemple, on peut sans crainte conseiller la tablette de 2012. Cliquer pour agrandir À l'usage, et pour un utilisateur qui n'a pas d'exigences extrêmes en matière de performances, la vraie différence est physique. Avec ses 652 g pour la version Wi-Fi, l'iPad 4 est près de 200 grammes plus lourds que l'iPad Air, annoncé à 469 g seulement. Cette différence est énorme, bien plus qu'on ne pourrait le croire et elle sera sensible dès que vous prendrez la tablette en main. Ce surpoids n'est pas nécessairement rédhibitoire, son impact sur votre décision dépendra logiquement de l'utilisation de la tablette. Si l'iPad sera essentiellement utilisé à votre domicile ou travail, l'ancien modèle peut largement convenir. En revanche, si vous devez souvent tenir la tablette sans pouvoir la poser sur une table ou une autre surface, les 200 g de moins de l'iPad Air justifieront, à eux seuls, la différence de prix. À propos de mensurations, un mot sur la taille de la tablette. L'iPad Air est un petit peu moins haut (environ 1 mm de moins), mais la différence se fait surtout sur la largeur avec 1,6 cm de perdu par rapport à l'iPad 4. C'est suffisant pour être sensible en utilisation, mais ce n'est pas forcément un bon point. Les larges bords autour de l'écran de l'ancienne version restent très confortables et on ne masquera jamais une partie de l'écran. [ pagebreak ] 9,7 pouces pour le prix de 7,9 L'iPad avec écran Retina n'est pas seulement cent euros moins cher que l'iPad Air, il est aussi, à dix euros près, au même prix que l'iPad mini Retina sorti également à l'automne dernier. C'était déjà le cas avec l'iPad 2, mais cette tablette était handicapée pour plusieurs raisons, en particulier pour ses performances en retrait. Désormais, à moins de 400 EUR, on a le choix entre deux tablettes à la fois très proches et très différentes. Les deux appareils sont dotés d'un écran Retina à la même définition (2 048 x 1 536 pixels) et l'iPad mini de dernière génération n'est plus freiné par un processeur un peu âgé, comme pouvait l'être son prédécesseur. Le choix se fera d'abord sur la taille d'écran, et donc la taille de tablette. Puisque les deux iPad ont la même définition, ils affichent la même quantité d'information. Un écran 9,7 pouces présente toutefois l'avantage d'agrandir les interfaces par rapport à un écran 7,9 pouces et on a ainsi, toutes choses égales par ailleurs, des lettres plus grandes, des boutons plus gros, mais aussi plus d'espace pour manipuler les interfaces. On voit bien la différence entre l'iPad 4 (blanc) et l'iPad mini Retina (noir) : les deux écrans affichent la même information, mais tout est plus petit sur le mini. En fonction de votre profil et de vos besoins, cette différence n'aura aucune importance ou elle sera déterminante dans le choix de l'iPad. Chaque écran ayant ses avantages et ses inconvénients, il faudra choisir entre le confort d'une interface plus large et un moindre encombrement. Ajoutons que la définition de la tablette 7,9 pouces est légèrement meilleure (326 ppp) que celle de l'iPad 4 (264 ppp) et la différence, bien que légère, est visible. L'affichage paraît encore plus fin et précis sur un iPad mini Retina, mais l'iPad 4 n'a rien à prouver en matière d'écran non plus. Ce sont deux très bonnes tablettes sur ce point et le choix est avant tout personnel. À vous de voir quelle taille d'écran vous convient le mieux... Pour conclure Vendu 389 EUR, l'iPad avec écran Retina est une tablette intéressante, même en 2014. Certes, ce modèle n'a pas toutes les nouveautés et toute la puissance de l'iPad Air sorti il y a quelques mois, mais il ne démérite absolument pas pour l'écrasante majorité des usages. Autant l'iPad 2 qu'il remplace était vraiment trop ancien, autant pour le tarif demandé, l'iPad 4 est une bonne offre pour tous ceux qui ne cherchent pas à avoir la dernière génération à tout prix et qui veulent économiser 100 EUR. À l'heure des choix, la question qui se pose est plutôt celle de la mobilité. Il n'y a que dix euros de différences entre cette tablette et un iPad mini Retina et il faudra choisir entre le confort des 9,7 pouces ou l'encombrement réduit des 7,9 pouces. Il n'y a pas de bonne et de mauvaise raison, chacun fera son choix, de préférence en essayant les deux tablettes. Un tour dans un Apple Store ou chez un revendeur peut suffire pour se faire une idée. Notre avis est plus mesuré sur le modèle cellulaire. Le site d'Apple nous avait induits en erreur en laissant croire que la tablette était désormais compatible avec tous les opérateurs français en 4G LTE, mais il n'en est rien. L'iPad 4 reste limité à la 3G chez tous les opérateurs, sauf Bouygues Telecom qui est le seul à proposer de la 4G sur la fréquence 1800 MHz, prise en charge par la tablette. Étant entendu que l'on achète un iPad cellulaire pour l'utiliser en situation de mobilité, cet iPad 4 est beaucoup moins intéressant qu'un iPad Air, voire qu'un iPad mini Retina vendu au même prix à 10 EUR près. À notre avis, si vous avez besoin d'une tablette en déplacement, privilégiez plutôt un modèle de 2013. Plus que les performances, c'est le poids qui fera la différence au quotidien et vous ne regretterez pas la somme supplémentaire qui est nécessaire. Un mot, pour finir, sur le monde de l'éducation. Apple a gardé l'iPad 2 au catalogue d'abord pour répondre aux besoins des écoles dans le monde avec une tablette bon marché. L'iPad 4 lui succède, ce qui aura au moins deux conséquences. Pour la première fois, le monde de l'éducation devra composer avec un connecteur Lightning, mais ce n'est pas un problème aussi grave qu'on veut bien le dire, puisque les tablettes sont livrées avec un câble. Plus important sans doute, l'iPad 4 est compatible AirDrop, une fonction qui devrait intéresser le milieu de l'éducation. Plusieurs personnes concernées nous ont rapporté que la fonction pouvait être très pertinente, par exemple quand le professeur veut envoyer une même information à tous ses élèves. Ou à l'inverse, quand les élèves veulent « rendre » un devoir, ils peuvent aussi le transmettre par ce moyen qui présente l'avantage de fonctionner directement entre appareils, même sans réseau sans fil. Voir les Read more HyperX Cloud headset : un casque pour jouer... Clubic HyperX Cloud headset En flânant sur le site de Kingston, on voit de la mémoire, toujours de la mémoire et rien que de la mémoire. Vive, flash, mobile, entrée de gamme mais surtout gamer, sous la bannière HyperX. Aujourd'hui, cette division prend du galon (la marque Kingston s'efface) et confirme sa volonté de diversifier ses activités dans le milieu de l'audio. Un peu comme Corsair l'avait initié avec le HS1 fin 2010. Après un premier Siberia V2 HyperX edition (fabriqué par Steelseries), voici le casque HyperX Cloud, réalisé en partenariat avec le Suédois QPAD. Sa caractéristique majeure : un confort à l'épreuve des heures. Présentation du casqueLa techniquePas de fiche technique dans ou sur la boîte, peu d'informations de la part de l'attachée de presse, et comme le casque ne sort que le 28 avril, il n'est pour l'heure répertorié nulle part. Cela dit, on peut prudemment s'inspirer des spécifications du QH-90 de QPAD, sur lequel se base (le mot est faible) l'HyperX Cloud. Ce qu'il y a de sûr, c'est que le casque de Kingston utilise les mêmes transducteurs de 53 mm, « Hi-Fi capable » que son cousin scandinave. Chez QPAD, on annonce ces spécifications, probablement identiques ici : * réponse en fréquence de 15 Hz – 25 kHz ; * pression acoustique maximum de 98 dB (+ ou – 3 dB) ; * impédance de 60 Ohms ; * distorsion harmonique totale inférieure à 2 % ; * puissance admissible de 150 mW.A la manière de nombreux casques gamer, l'HyperX Cloud est fermé, et du genre bien fermé. L'atténuation atteindrait 20 dB (toujours d'après les spécifications de QPAD), ce qui, une fois le casque mis sur la tête, nous semble bien plausible. Le silence est tellement roi qu'on en vient à entendre ses petits résidus d'acouphènes ! Cette isolation fonctionne aussi dans l'autre sens.On retrouve sinon le même micro détachable (gare à ne pas perdre le petit cache en caoutchouc !) avec tige souple, couvrant une réponse en fréquences de 100 Hz à 12 kHz, avec une sensibilité de -39 dB (+ ou – 3 dB) et une impédance de 2,2 kOhm. Pas de dispositif de micro secondaire pour atténuer les bruits ambiants, mais comme la directivité est ici de type cardioïde, c'est essentiellement la voix qui sera captée.Le cache en caoutchouc et la perche de micro amovibleL'objetL'HyperX Cloud headset adopte la même construction de haute volée que le QH-90 : branches et coque arrière en aluminium, oreillettes et intérieur d'arceau en simili-cuir (surpiqué de rouge), plastique au toucher peau de pêche fort agréable, gainage solide du câble… bref, c'est du sérieux. La différence avec le QH-90 ? Nous avons demandé à Kingston, qui nous a répondu le coloris rouge et noir, à l'effigie de HyperX, l'ajout d'une paire d'oreillettes en velours, un étui de transport plus douillet doté d'une poche à accessoires et une bonnette de micro plus mince.Tant qu'on est dans les accessoires, mentionnons l'adaptateur avion, l'adaptateur mini jack 3,5 mm (fusionnant casque et micro), la rallonge avec télécommande et celle, de 2 m, sans télécommande. On en déduit alors que tout le reste est identique entre l'HyperX Cloud headset et le QH-90.Le déballage de la boîte, bien remplieSur le plan « géométrique » maintenant, HyperX (ou plutôt QPAD) a fait dans le simple : on règle la hauteur des branches tandis que les charnières des écouteurs assurent un angle intérieur suffisant pour offrir un bon plaquage autour des oreilles (on est sur du circum-aural). Mais aucun mécanisme de pliage ou de rotation des écouteurs n'a été envisagé ici. Ce qui, au passage, permet au casque de voir son poids descendre sous la barre des 290 g. La pression de l'arceau est très bien dosée, les généreuses mousses (11 x 9 cm) à mémoire de formes font parfaitement tampon : le confort est excellent. Et sur la durée, puisque c'est la promesse du constructeur, le Cloud headset se fait complètement oublier. Nous avons tenté une phase de deux heures de jeu non stop (un métier difficile, n'est-ce pas ?), nos oreilles n'ont pas vu le temps passer.Notre seul bémol à ce stade concerne l'emplacement de la télécommande. Une position judicieuse aurait été quelque part au niveau du buste. Là, on est aux genoux (stature de 1,77 m)… Et la solidité du bouton au dos (extinction temporaire du micro) n'est pas à la hauteur du reste.La télécommande arrive aux genoux !Evaluation du casque à l'écouteL'HyperX Cloud headset n'a rien de « cloud ». N'imaginez pas un casque connecté avec des presets hébergés sur une plateforme distante, c'est un produit tout bêtement analogique qui marche au jack (audio, pas Daniel's). Comme le Vengeance 1300 de Corsair. Les amateurs d'effet surround devront donc faire chauffer leur carte son.Pour de la musiqueLe meilleur moyen de jauger un casque, c'est d'écouter des musiques bien connues. Sans trop de surprises, l'HyperX Cloud headset propose une signature façonnée avant tout pour le jeu vidéo, avec une présence marquée sur les deux extrémités du spectre. Des basses proéminentes et des aigus haut perchés. Le rendu est pêchu mais ne se marie pas avec tous les styles musicaux. Le principal souci étant la sibilance dans les aigus. Certaines fricatives (consonnes s, z, ch et j), les charley trop proprement produits dans les mix, ou à l'inverse les artéfacts des mauvais encodages produisent des sifflements qui selon les cas de figure pourront vite fatiguer. C'est un peu dommage parce que les médiums de bonne qualité restituent bien les voix.Autre point à noter : les oreillettes en velours ouvrent considérablement le casque, mais elles font perdre toute la densité des basses au casque. Alors certes, le casque se montre généreux dans ce domaine par défaut, mais avec le velours, on tombe pour le coup un peu trop bas. La spatialisation, qui se traduit en une image sonore plus large que précise, est dans l'ensemble, et pour un casque fermé, plutôt bonne.Sur du jeu vidéoOn y vient ! Est-ce nécessaire d'activer un son 3D sur sa carte ? Non, le casque offre une stéréo assez ample et précise pour que l'expérience soit plaisante en stéréo. Crysis 3 et Battlefield 4 (1h de chaque, pas de jaloux) nous ont permis de faire ce constat. Les bruits d'ambiance se positionnent bien, et même quand ça canarde sévère, on perçoit encore d'où vient l'ennemi. Toutefois, les transitions de latéralisation (canal gauche à droit ou inversement) manquent un peu de souplesse. C'est bien perceptible quand une source sonore se trouve pile en face ou derrière, et que vos mouvements produisent des oscillations autour de cet axe. Nous avons donc activé le surround du DSP SBX Pro Studio sur notre carte Creative Sound Blaster ZxR. Pas besoin de Crystalizer, ni de toucher à l'égaliseur en revanche, et ça c'est plutôt bon signe.Nous appliquons l'effet Surround dans le pilote CreativeAvec Crysis 3 comme Battlefield 4, l'immersion est totale. Qu'il s'agisse des balles qui frôlent vos oreilles ou des bestioles aliens qui rodent dans les hautes herbes, le casque restitue l'atmosphère tendue de ces deux FPS sans jamais trahir. C'est parfois dur pour les nerfs, mais que c'est bon ! Le dynamisme naturel du casque nourrit abondamment détonations et explosions, tandis que les musiques d'ambiance vous maintiennent en alerte permanente. La sibilance observée dans le cadre d'une écoute purement musicale n'est pas vraiment perceptible ici, les voix restant sur ces deux titres dans le registre du grave. Et elles ne sont de toutes façons pas omniprésentes. L'HyperX Cloud headset reste indiscutablement taillé pour le jeu.Crysis 3 et Battlefield 4 à l'honneurAvec des filmsOn est ici entre-deux. Autant les films d'action rendent particulièrement bien, autant des œuvres centrées sur les dialogues pourront « souffrir » du problème de sibilance. La fatigue est moins marquée qu'en écoute musicale, mais si vous êtes du genre à enquiller les séries pendant des heures, il faudra envisager des pauses.Super 8 et Transformers : Dark of the moonEt le micro ?La captation de la voix est particulièrement douce, sans doute l'effet de la bonnette qui atténue fortement l'attaque et les « pops » sur les consonnes occlusives (p et b) prononcées trop fort près. On pourra trouver que les timbres manquent de graves, mais c'est aussi ce qui contribue à la belle maîtrise du rendu. Le volume, sans la moindre amplification de micro du côté de la carte son, est déjà très correct, il sera facilement dosable au besoin. La directivité focalisée sur la voix ne se laisse pas polluer par le bruit conséquent de soufflerie qu'émet notre machine de test. Toutefois dans l'environnement bien bruyant d'une LAN endiablée, il faudra vraisemblablement activer les traitements de la carte son ( noise reduction et/ou focus sur la ZxR de Creative, par exemple).ConclusionL'HyperX Cloud headset sera commercialisé autour du 28 avril à 99 EUR. Le même prix que le QH-90 de QPAD. Mais il n'y a pas que le tarif que les deux casques ont en commun. A vrai dire, Kingston a simplement transformé l'apparence du QH-90 à son image et modifié quelques accessoires. L'audio n'est pas son cœur de métier, autant laisser faire ceux qui savent en signant un partenariat. Mais devant aussi peu d'inventivité, le consommateur peut légitimement se poser la question de l'intérêt de ce clonage. D'un point de vue business, c'est peut-être l'opportunité pour QPAD de profiter de l'aura de Kingston pour donner davantage de visibilité à ses produits, fort bons au demeurant. Car l'HyperX Cloud headset est un très bon casque. Pour le jeu d'abord, où on appréciera son excellent confort, sa pêche, son isolation massive et sa belle précision. Il faudra virtualiser le surround depuis la carte son, mais même sans, l'immersion est géniale. L'HyperX Cloud headset sait aussi se montrer polyvalent : une fois le micro détaché, il fera un bon casque audio, malgré une certaine sensibilité au phénomène de sibilance, et donc une fatigue auditive variable selon les styles écoutés. Un très bon produit dans l'ensemble !Les plus * Confort longue durée / isolation * Rendu pêchu / image sonore large * Construction sérieuse / accessoires * Micro propre / prix honnêteLes moins * Sibilance dans les aigus (musique) * Aucun soft fourni = pas de surround * Innovation par rapport au QH-90 ? * Rendu avec mousses en veloursHyperX Cloud HeadsetCasque gamerTrès bon * Qualité audio * Qualité micro * Confort * FabricationVous pouvez également consulter ce comparatif de casques gamer surround Read more Moneual MR6800M-M3, robot 2-en-1 aspirateur et... Les numériques Le MR6800M est le nouvel aspirateur-robot du fabricant coréen Moneual, distribué par Big Robots. Ce dernier a accepté de nous le prêter en avant-première, puisqu'il sera commercialisé en France cet été au prix de 549 EUR. Comme les précédents modèles, il mise sur la présence d'une batterie Lithium-Ion phosphate qui assurerait une recharge rapide (1 h) pour une autonomie importante. Autre particularité de ce nouveau Moneual : un capteur de luminosité qui permet de nettoyer avec plus d'ardeur sous les meubles. L'appareil est également programmable et équipé d'un filtre HEPA. Enfin, sa principale particularité réside dans un adaptateur à installer sous le robot pour le transformer en 2-en-1, aspirateur et serpillière. Il serait le seul aspirateur du marché à utiliser ce système de lingette humidifiée par un réservoir d'eau. Comment se débrouille-t-il en réalité ?Commodité d'emploiLe dernier robot testé de la marque était le MR7700 . Ce MR6800 semble de plus belle qualité (coque, pare-choc, brossettes) et ses lignes sont plus ergonomiques. Il affiche un panneau de commandes entièrement tactile. Seules 3 commandes sont affichées (pour lancer/arrêter un nettoyage, un interrupteur et la sélection des modes).  Les retours de commandes sont indiqués par des icônes lumineuses sur la coque du robot ; il faut apprendre à reconnaître les icônes, ce qui est relativement facile. Nous avons tendance à préférer un vrai écran (comme sur les Neato), moins joli mais plus pratique.  Dommage, les commandes tactiles sur le corps du robot ne sont pas toujours des plus réactives. Quant à l'utilisation de la télécommande, elle n'est pas très compliquée puisque tout est indiqué dessus (en anglais)  : chaque mode par son nom, notamment -- seule la programmation nécessite un peu de pratique.Moneual a fait un véritable effort, très appréciable, sur l'entretien de ce robot. En effet, les deux brossettes latérales sont seulement encastrées et s'enlèvent très facilement -- attention il y a un sens !Quant à la brosse centrale, elle alterne pales en caoutchouc souple et poils, ce qui limite la rétention des saletés et facilite le nettoyage. À cet effet, le compartiment peut s'ouvrir pour sortir cette brosse facilement.  Une remarque concernant l'entretien, tout de même. Si nous apprécions la présence d'un filtre de qualité et normé HEPA, le collecteur de 0,6 l n'est pas bien pratique à vider, car il ne dispose pas de trappe à proprement parler.  Enfin, l'une des particularités est le nettoyage "avec garniture" : il s'agit du lavage de sols en accrochant au robot un support fin rempli d'eau qui humidifie une lingette (avec des scratches). La manipulation est très simple et un mode est dédié à ce nettoyage.Système de navigationLe Moneual MR6800 est un robot aveugle sans caméra ni de télémètre laser pour cartographier les pièces. Nous l'avons utilisé la plupart du temps en mode automatique, lequel enchaîne divers schémas de nettoyage qu'il ajuste à l'aide de ses capteurs d'obstacles.Contrairement à de nombreux robots "aveugles", ce Moneual ne "rebondit" pas sur les objets pour repartir en sens inverse, ce qui est plutôt positif, car cela lui permet de mieux couvrir les surfaces. Il ne suit pas non plus le contour des objets avec autant de précision qu'on pourrait le souhaiter mais il se débrouille plutôt bien. À force de répétitions, la couverture des surfaces à nettoyer parvient à être bonne, même si elle n'est pas parfaite.Attention, pour le retour à la base, ce robot affiche une spécificité : la distance de transmission entre le robot et sa base se règle (5 m pour les petits espaces et 8 m pour les grands). Si le réglage est mal choisi, cela peut gêner le robot dans son retour à la base. Contrairement au nettoyage dans notre salle de test, un réglage sur 5 m à la maison ne permet pas au robot de retrouver sa base -- problème résolu en changeant le réglage. Nous aurions préféré un réglage par défaut "universel", qui évite ces désagréments. Notons cependant qu'il retrouve assez correctement sa base si le réglage choisi est adéquat (le trajet est parfois long et hésitant).  Il est livré sans balise virtuelle, mais il s'est montré capable de naviguer de pièce en pièce, prévoyant le temps nécessaire pour revenir à sa base avant le déchargement complet de la batterie. Notez que malgré la présence d'une lingette humide -- installée du côté opposé au chargement du robot -- en mode "mop" (serpillière), le robot retourne à sa base en fin de cycle, mais nettoie dans une seule pièce, s'arrêtant au seuil de porte.Gestion des obstacles Ce robot aveugle gère plutôt bien les obstacles. Chose rare, lors de nos tests, à aucun moment nous ne l'avons retrouvé coincé. Il passe comme promis sous les meubles, ce qui a été le cas avec notre table basse de tests, notre canapé, notre bibliothèque... Rappelons qu'il dispose d'un mode spécial "shadow" pour travailler sous les meubles. Il est conseillé de ranger les câbles électriques, même s'il faut avouer que ce Moneual nous a agréablement surpris, ne s'emmêlant que très rarement les brossettes dedans.  En ce qui concerne les tapis et moquettes, il y monte et en descend sans problème, même sur notre tapis épais de test.    Les seuils de porte de taille classique ne lui posent pas de problème non plus. Le retour à la base est un peu hésitant et peut prendre un certain temps, mais dans la plupart des cas, le MR6800M y parvient, même lorsqu'on le lâche dans un appartement entier comportant plusieurs pièces.AspirationSur sols durs, il se débrouille plutôt bien avec une couverture des surfaces assez bonne, qu'il s'agisse de parquet ou de carrelage. Sur moquette fine, il est parvenu à ramasser la totalité des matières répandues, y compris sous la table basse, le long des murs et dans les angles. Pour cela, il a tourné pendant pas loin de 2 heures -- ce robot aveugle ne dispose pas de capteur de saleté et nettoie donc jusqu'à épuisement de sa batterie.  Sur notre moquette épaisse à poils longs de test, l'exercice est toujours un peu plus complexe. Il s'en sort avec un score de ramassage plus qu'honorable de 75 % (presque autant qu'un Neato XV-25 ). Si vous possédez un tapis ou une moquette de cette nature, il faudra faire tourner le robot souvent afin de ne pas laisser le sol s'encrasser.  BruitCe robot est assez bruyant et d'autant plus gênant que ce bruit est aigu. Presque 69 dB aux mesures, on est loin des 55 dB promis sur la fiche technique ; ce robot travaillera plutôt en l'absence de son propriétaire. Il est heureusement programmable.ConsommationNous avons mesuré 24 W en charge et 2,8 W chargé. Ces mesures sont assez élevées par rapport à la concurrence. Notons cependant que ce propos doit être tempéré car la recharge est très rapide (environ 1 h) et l'autonomie importante (presque 2 h).  Le MR6800M peut être chargé sur sa base ou bien directement en branchant le chargeur sur le robot.Modes et fonctions complémentairesLa base de chargement est plutôt bien conçue : on peut y ranger le transformateur du chargeur et faire ressortir les câbles du côté adapté à la position de la prise électrique.  Ce robot est livré avec une petite brosse allongée pour le nettoyage, une brosse en caoutchouc pour un nettoyage "écologique" (sans produit d'entretien) des lingettes de lavage du sol. Ces lingettes peuvent aussi être glissées dans le lave-linge.  Une télécommande fait partie du pack ; elle permet de gérer la plupart des commandes du robot et de le piloter à distance (fonctionnalité qui peut permettre de finaliser un nettoyage, mais que nous estimons un peu gadget). Il faudra apprendre à l'utiliser, mais tout est indiqué dessus (en anglais). En revanche, le MR6800M est livré sans balise faisant office de mur virtuel.  Ce MR6800-M est promis comme un 2-en-1 qui aspire et nettoie. Livré avec une petite plaque à remplir d'eau et sur laquelle on accroche une lingette en microfibre, il fait aussi office de serpillière. Cette dernière est régulièrement humidifiée pendant le cycle : attention, il ne s'agit pas de lavage à proprement parler puisque l'eau utilisée est pure (sans détergent) et la lingette seulement humidifiée. Sur notre parquet, cette solution a eu tendance à laisser quelques traces, mais elle a été efficace sur du carrelage. Si on ne peut pas en attendre un vrai lavage, ce passage de lingette humide a le mérite de finaliser le nettoyage, enlevant les dernières poussières ou poils d'animaux. Comme il ne s'agit que de lingette humide, les sols fragiles ne risquent rien.  Quant aux modes, nous avons surtout utilisé le mode automatique, dans lequel le robot navigue tout seul (éventuellement dans différentes pièces). Il propose aussi un mode spot (intensif localisé à une zone), shadow (pour nettoyer dans le noir, sous les meubles), nettoyage avec garniture (serpillière, qui se cantonne à une pièce) et nettoyage des coins. Enfin, ce robot est programmable, en départ différé ou à la même heure tous les jours de la semaine. La programmation s'effectue à partir de la télécommande ; un peu complexe les premières fois, elle s'effectue mode d'emploi en main.  Read more Le succès des séries télé nuit-il au cinéma ? France Tv Info Aller au cinéma ou regarder une série ? Des spectateurs toujours plus nombreux, en France comme en Amérique du Nord, se posent la question avant de sortir dépenser 10 euros pour profiter du spectacle des salles de ciné. D'autant plus depuis que la télévision propose des séries haut de gamme. Madmen , Game of Thrones , depuis quelques années, et plus récemment True Detective , empruntent au cinéma son budget, son sens du spectacle et de plus en plus ses acteurs, réalisateurs et scénaristes.A l'occasion des cérémonies des César et des Oscars 2014, francetv info a interrogé Pierre Barrette, spécialiste du cinéma et de la télévision, professeur à l'école des Médias de l'université du Québec à Montréal (UQAM), pour comprendre le succès des séries télé et leur impact sur le cinéma. Francetv info : Comment expliquer le succès des séries télé depuis quelques années ? Pierre Barrette :  Aux Etats-Unis, la télévision a regagné une légitimité et un public en proposant des séries de qualité, d'abord sur des chaînes payantes, à partir de la fin des années 1990. A l'époque, un certain public, qui n'a pas envie de passer ses vendredis soirs à regarder des gens obèses faire du sport, exige mieux que les centaines de concepts de téléréalité qu'on lui propose. Au même moment, la chaîne câblée américaine Home Box-Office (HBO), première chaîne premium (payante) créée en 1972, qui diffusait traditionnellement du sport et des films, est dépassée par le développement du DVD et la VOD. Elle reprend donc un format ancien, purement télévisuel : la série. C'est là qu'apparaissent Les Sopranos , Six Feet Under , The Wire ... Des séries qui empruntent les codes du grand cinéma, avec des scénarios psychologiques, des personnages profonds. Les autres chaînes premium suivent le mouvement. C'est ce qu'on appelle le "HBO-effect". Séries et cinéma sont-ils deux mondes bien distincts ? Non, leurs histoires sont liées depuis longtemps. Pour s'en rendre compte, il suffit de s'intéresser aux trois grandes périodes de ce qu'on peut décrire comme une télévision de qualité. Dès les années 1950, ce qui se fait à la télévision est très proche du cinéma pour une raison simple : ce sont les mêmes personnes qui font les deux. L'exemple le plus célèbre, c'est le réalisateur Alfred Hitchcock [sa série Alfred Hitchcock présente est diffusée à partir de 1955 sur la chaîne américaine CBS] mais en réalité, cela concerne presque toute la production. La deuxième période date des années 80, avec l'arrivée des feuilletons, dont les épisodes se suivent. Cela existait déjà en France et au Canada, mais c'était très rare aux Etats-Unis, où cette forme était réservée aux séries historiques. Si vous regardiez Columbo [diffusée à partir de 1968] , vous pouviez rater un épisode ou bien les regarder dans le désordre, sans problème. La troisième période est celle que nous vivons aujourd'hui. Qu'en est-il en France ? La très grande popularité des séries américaines changera peut-être la donne à l'avenir. Pour l'instant, le clivage entre télévision et cinéma en France est encore très présent. Le cinéma, c'est le prestige ; la télévision est considérée comme moins intéressante. Peut-être à cause de la tradition des films d'art et d'essai, des grands cinéastes. A cause aussi des modes de financements. En France et en Europe, on "protège le cinéma contre la télévision". Cela en dit long sur la manière dont on considère les qualités relatives de l'un et de l'autre.  Le succès des séries menace-t-il le cinéma ? L'industrie du cinéma n'est pas menacée, mais elle se transforme. Les studios ont abandonné les films de niches qui ciblaient des populations précises et stéréotypées (les westerns pour les hommes jeunes, les romances pour les femmes...), au profit de très grosses productions, essentiellement des comédies romantiques, des films d'action, de super-héros, dans une logique de blockbusters très grand public. La compétition avec les séries télévisées les incite aussi à miser sur des franchises qu'ils exploitent le plus longtemps possible. Etant donné les investissements faramineux, les studios ne peuvent pas se permettre de rater leur coup. Les producteurs comptent sur des valeurs sûres, comme les Batman , Spider-Man et autres films de super-héros, dont ils multiplient les suites. Cela appauvrit le cinéma américain, lisse les scénarios, car les clés de la narration sont toujours les mêmes. Qu'est-ce que cela change pour les spectateurs ? Les cinémas américains sont devenus de très grands multiplex, avec des dizaines de salles et dans lesquels on trouve une offre commerciale énorme, du popcorn, des hot-dogs, aussi bien que des pistes de bowling. Ils sont destinés à accueillir un public précis : les adolescents. Car ce sont eux qui n'hésitent pas à dépenser quelques dollars supplémentaires dans ces à-côtés, en attendant le début de leur film. Le cinéma profite aussi de sa forme spécifique pour attirer des spectateurs grâce à une "offre augmentée", à laquelle les gens n'ont pas accès chez eux : la 3D, le son THX, les sièges qui bougent, l'odorama... Au Québec, il y a même des salles de cinéma où l'on peut manger, prendre un verre, en regardant un film. Ces multiplex laissent de moins en moins de place à un cinéma intelligent. Les films qui n'entrent pas dans la catégorie des blockbusters, les films d'auteur, n'ont pas disparu totalement, mais ils font de très courtes carrières en salles. Ils restent trois semaines au lieu de huit. Ensuite, ils sortent rapidement en DVD et Blu-Ray. Le public a-t-il aussi changé de comportement ? Les spectateurs qui se déplaçaient pour aller voir le dernier Martin Scorsese, Woody Allen, les films des frères Coen, constituent aujourd'hui le public des séries de qualité, qu'ils peuvent regarder chez eux, sur leur ordinateur où sur les grands écrans plats. Ces gens-là vont peut-être un peu moins au cinéma. Pour autant, les salles ne se vident pas, c'est le public qui est différent. D'un point de vue économique, les studios hollywoodiens sont-ils perdants ? Les structures de production sont complexes et on ne le voit pas forcément, mais ce sont en fait les mêmes sociétés qui produisent les séries et les films, donc l'argent atterrit dans les mêmes poches, en ce qui concerne les sorties en salle et les ventes de DVD. Et sur le marché des produits dérivés, le cinéma reste bien plus puissant que la télévision. Le principe des figurines de personnages de films, lancé par George Lucas, avec Star Wars , s'adresse surtout à un public très jeune, au public des films de super-héros. Les séries, destinées plutôt aux adultes, n'ont par ailleurs pas grand chose à offrir en terme de produits dérivés, sauf pour une poignée de collectionneurs. Pourquoi les réalisateurs de cinéma, comme Martin Scorsese avec Boardwalk Empire , se tournent-ils vers la télé ? Pour les mêmes raisons que le public. Le visionnaire David Lynch est le premier à avoir fait cela, en 1990, avec sa série  Twin Peaks . Il voyait que l'avenir des productions de qualité pouvait être à la télévision. A l'époque ça n'a pas du tout marché, ça a été un flop pour ABC, la chaîne qui diffusait cette série. Mais Twin Peaks , qui est aujourd'hui culte, a lancé un mouvement intellectuel. C'est ce qui fait qu'un Martin Scorsese produit aujourd'hui Boardwalk Empire . Et les acteurs et actrices ? Avant cette multiplication des grandes séries, les acteurs commençaient parfois à la télévision, comme Brad Pitt qui a joué dans des soap-operas , et s'ils réussissaient à accéder au cinéma, ils ne faisaient jamais demi-tour, comme en France. Le mouvement s'inverse à présent. D'autant plus que le cinéma mise énormément sur un nombre limité de têtes d'affiche célèbres. Il investit beaucoup d'argent dans ces million dollar actors , pour aller chercher le public. C'est comme cela que Tom Hanks peut être payé 30 ou 35 millions de dollars pour un film. Ils sont une cinquantaine d'hommes et de femmes dans ce cas. En dehors de ce cercle très restreint, les autres sont complètement négligés, même s'ils sont talentueux et particulièrement s'ils ont déjà un certain âge et une carrière derrière eux. Un plateau de tournage de série aujourd'hui, c'est presque la même chose qu'un plateau de cinéma. Quel genre de cinéma échappe à la règle ? S'il y a bien un genre qui survit au raz-de-marée télévisuel, c'est la comédie. Le public aime toujours se rendre au cinéma pour voir ces grandes comédies très rassembleuses. C'est d'ailleurs le genre le plus rentable aux Etats-Unis. Il ne coûte pas particulièrement cher et il rapporte beaucoup. A la télévision, la tradition comique prend systématiquement la forme de sitcoms . Quelle que soit leur qualité, ce format purement télévisuel, avec des épisodes d'une vingtaine de minutes et des rires en boîte, ne fait donc pas concurrence aux longs-métrages. Les séries s'imposent-elles pour autant à grande échelle dans la culture populaire ? Pas encore. Pour le moment la série reste un produit de niche. Madmen , Breaking Bad , Les Sopranos , sont connues, certes. Mais surtout dans certains groupes de population. Leur notoriété est très liée à la nature de leur public. Un public qui a la parole : des journalistes, des chroniqueurs, qui ont une position privilégiée pour parler de leurs goûts en public. Ils démultiplient l'impression de popularité de ces séries. Mais dans les faits, leur succès est incomparable à celui des grands films. Star Wars : un nouvel espoir  (George Lucas, 1977) a été vu par près de 200 millions de spectateurs, rien qu'au cinéma. Les Sopranos ont été vus par 15 ou 20 millions de personnes lors de leur diffusion sur HBO. L'impact sur la culture populaire est donc forcément beaucoup moins grand. Et même le téléchargement illégal pèse relativement peu [ Game of Thrones , série la plus piratée en 2013, a été téléchargée environ 6 millions de fois] et pèsera de moins en moins au fur et à mesure du développement de systèmes comme Netflix (site de streaming légal à bas prix).A lire sur Read more THAÏLANDE o Opération ville morte Courrier International A la suite des manifestations à Bangkok qui perdurent, quelques réflexions... Bangsaen, Le 13/12/2013 Quelques jours de joyeux foutoir, A peine les palmes sont-elles agitées par un petit air frais venu du large, le golf s'étale, tranquille et comme rasséréné par cette nuit sans vent ; de fines vaguelettes irisées, sans écume viennent lécher les criques. Les premiers échassiers blancs s'éveillent et se posent, après de longs vols planants, sur les bambous nus, plantés drus, un peu partout dans la baie. Tout est calme, infiniment calme et apaisé. Les derniers pêcheurs de l'aube émergent des brumes chaudes, tous feux éteints après une nuit passée dans l'incandescence des lampes de mâture destinées à attirer les Plàmouk* ; Ils formaient, il y a quelques heures un pointillé lumineux au bout de la masse d'encre noire océane répandue jusqu'à terre. Au-delà, les feux de Bangkok n'incendient plus l'horizon, sans cette lueur fantomatique et édulcorée, sans ce halo sauvage orangé, et sans repères, nous aurions pu nous imaginer être loin des concentrations humaines, sur une île improbable et pacifique. Mais en ce festin apaisant de nature marine humble, Bangkok est bien là qui s'impose, par-delà ce trait scintillant sur la mer et, me voilà ainsi, ramené à l'agitation palpable qui fustige les grands calmes, à la ville foisonnante, à la fureur des hommes. Hier encore, sous les baies de verre scintillant de la grande ville, sur une table de fer blanc, dans la rue, devant un grand bol fumant de kaotom mou*, je parcourais les premières pages du Matichon* et du Bangkok post* ; à l'atmosphère nonchalance du soï*, s'opposait sur le papier, les images de foules bariolées et joyeuses arpentant les avenues, de barrières en béton mises à bas, de policiers robocop débonnaires, des harangues véhémentes des tribuns. Je parcours ces « news », toujours plus étonné chaque jour, et doutant de ma connaissance réelle des arcanes de ma terre d'adoption. Un parlement dissous pour deux mois, une première ministre soupçonnée des pires collusions avec son frère exilé et condamné pour corruption. Un ancien premier ministre sorti d'une gravure de mode, poursuivi pour « meurtre », un leader de l'opposition poursuivi pour les mêmes chefs et qui ne se présente même pas à l'audience du tribunal et, de plus, sous le coup de deux inculpations rencontre le chef d'état-major de l'armée. La capitale Krungtép mahanakon* ...dont la presque totalité des ministères, le centre des télécommunications et le siège du gouvernement sont occupés par des foule en liesse qui coupent le courant ici et là, même au Siège de la police et en repartent sans oublier, armés de sceaux, de balais, de tout nettoyer parfaitement! Un anniversaire du roi qui remet tout à plat pour quelques jours pendant lesquels on marque son respect intangible au plus vieux monarque du monde, avant de recommencer, mais quoi? Aux yeux de l'occidental moyen, du « Farang »* ordinaire, occupé aux affaires le jour, aux agapes le soir, dans l'insouciante fête naissante au crépuscule, ce ne sont que péripéties inoffensives et incompréhensible. Même pour le plus féru des autodidactes en langue Thaï, connaisseur de l'histoire du royaume et de la dynastie des Chakri, des rebondissements parfois tragiques et spectaculaires de la saga Thaï, ce qui se passe reste une énigme, comme si des « Phi *» étaient toujours penchés sur le berceau du Siam. Tout le monde, ici, parle de corruption, mais qui est corrupteur et qui en bénéficie ? Tous s'accusent de tout et tous s'amusent de tout. Le soleil inéluctablement, en ce début d'hiver toujours doux, continu à se lever à six heures et la Thaïlande se meut, la ville et les campagnes résonnent des pétarades des motos, des pick-up, du grondement des chantiers, qui parfois ne se sont même pas arrêtés pendant la nuit. Les premières soupes du matin se vendent à la pelle, l'énergie du pays s'exprime alors avec quelle vitalité : les élèves saluent déjà le drapeau et parfaitement alignés, chantent l'hymne national dès huit heure, moment récurent où tout le monde se fige pour un instant, les professeurs courent vers l'université, les étudiants ensommeillés aussi ; les fermiers se hâtent lentement vers les rizières vêtus des pieds à la tête malgré la chaleur, la tête abritée sous de grands chapeaux voilés, d'une démarche chaloupée, les pieds au large, comme pour mieux posséder la terre. Les greniers à riz regorgent d'un riz, plus de la première qualité, mais qui de toute façon est garanti vendu à un prix permettant de sortir de sa modeste condition et laisse espérer un avenir ou les inégalités sociales criantes ne seront plus une fatalité. Les ouvriers, parfois khmers ou birmans, envahissent les usines et des fonctionnaires épatants, souriants, sont déjà installés derrière leurs bureaux exposés au public qui attend sagement, avec un rang derrière leurs supérieurs, et encore un rang derrière leurs chef de bureau. Et tout ce monde s'agite sérieusement, travaille, tamponne, pique-nique allégrement. La frénésie et le tumulte pacifique est omniprésent, loin des conciliabules des manifestations, même si beaucoup portent les couleurs du drapeau, sans qu'aucune angoisse ou stress apparent conséquent ne vienne ternir ou dérider des visages lumineux. Eh ! Quoi ? Où est le problème chef, ami, oncle ? La Thaïlande ne survit pas, elle explose. Les voitures étrangères « made in Thailand », ne se sont jamais aussi bien vendues. Même les moines en robe safran ont le dernier téléphone portable collé à l'oreille, les jeunes et les moins jeunes pianotent inconsidérément sur leurs tablettes et leur smartphone à toute heure du jour et de la nuit et en tout lieu, la créativité est décuplée, elle s'exprime partout dans des petits riens, des babioles de tissus, des objets hétéroclites, la furie médiatique, la mode, et jusque dans ces tours de verre et d'acier, toujours plus hautes et dans l'air du temps, innovantes, qui fleurissent dans un apparent désordre funambule, grignotant les vieux immeubles rongés par les mousses et les lichens, abreuvés des pluies chaudes de mousson. De cabanes, des maisons deviennent dures ; les restaurants, les échoppes ne désemplissent pas. La campagne est toujours aussi belle. Inusable, la vieille culture Thaï reste bien vivante et la connaissance progresse sans cesse. Coup d'état ou pas? Tous se posent la question et les militaires assurent que non, vraiment, ce n'est pas l'heure. Mais quand même, les camions de l'armée évacuent des étudiants assiégés dans l'université de Ramkameng* : pour les protéger ! Un mort ici, un bus occupé incendié, là... ce ne sont donc que vétilles au regard des bombes qui continuent à égrener leur cortège de quatre, six ou huit morts, depuis tant d'années, chaque matin à Yala, Naratiwat ou Pattani, dans le grand sud ? Et on finit par s'habituer à l'exhibition des photos de cadavres, « exquises et crues », au regard égaré des survivants bandés exposés en première page de l'édition du Matichon. Comme si cela n'était qu'un jeu. Qu'importe ! La Thaïlande n'a jamais été aussi forte et dynamique, malgré ces soubresauts de la démocratie, le Tsunami et les inondations. Les millions de touristes, esbaudis et conquis par la gentillesse, le sourire savoureux, la disponibilité, l'avenance inaltérable du peuple Thaï, continent à se répandre sur les plages, à Phuket, Samui, Pattaya...envahissent les lieux sacrés de la vieille culture Thaï, Ratanakossin*, palais, temples, se lancent dans des treks d'un jour, parfaitement balisés, dans les Uttayan eng chat*(réserves naturelles). Sous leurs pieds nus fragiles et sous le sable immaculé, la mer houleuse s'agite ; Ils ne savent pas grand-chose de l'ébullition à ce jour contenue ; ils ne soupçonnent pas que derrière les sourires qui écartent tendrement les lèvres de leurs serveuses, à chaque demande exprimée dans un anglais souvent hésitant, se cache l'émoi de tout un peuple bon enfant aujourd'hui divisé qui se souvient bien que le tragique peut succéder à la liesse, que le royaume d'Ayutthaya disparut en un jour, que les potentats de l'armée veillent depuis le 24 Juin 2595 (année Bouddhique : 1932). Mai pen rai*, bo pen yang doc*, bo pen yang djao, mai phru*, (ca n'a pas d'importance). Le bouddha d'émeraude, ramené de Vientiane il y a longtemps, de son regard de pierre verte, sourit toujours au Wat Phra Kéo. Sa majesté Rama IX, Bhumibol Adulydej, protecteur du pays est toujours là, omniprésente, étendant sa stature rassurante et bienveillante sur ses sujets depuis sa résidence balnéaire d'Hua Hin, rappelant, vaille que vaille, ce qui unit les Thaï aux Thaï. Du nord au sud, sur deux mille kilomètres, la Thaïlande s'éveille, s'étire, se contorsionne, s'anime, tente de se remettre d'aplomb, indifférente aux regards du monde, sans peur apparente du lendemain. Jean-Michel Ferry Mitouna 20 Glossaire : *Plàmouk : calamars *Matichon : Quotidien en langue Thaï avec sa version anglaise the nation *Bangkok post : principal quotidien de langue anglaise * kaotom mou : soupe de riz au porc * soï : petite rue souvent longue et en impasse *Krungtép mahanakon... : C'est le vrai nom de Bangkok pour les Thaï *Farang : Occidental *Phi : fantôme * « condos » : Condominium, forme juridique d'Unités d'habitations dont les étrangers ne peuvent posséder plus de 49%. *Ramkameng : Université populaire ouverte aux non diplômés. *Ratanakosin : Centre de Bangkok *Uttayan eng chat : Réserve naturelle protégée *Mai pen rai : Ca ne fait rien, ça n'a pas d'importance. bo pen yang doc* dans la région Issan(Nord-est), bo pen yang djao (dans le nord), mai phru(dans le sud) Read more Le chômage, la solution à la crise Agora Vox [ Avertissement : cet article est excessivement long, nous vous l'accordons. Nous en sommes sincèrement désolés, mais il nous semblait impossible d'exprimer des idées, des réflexions parfois complexes en 140 caractères. Un thème comme le chômage méritait qu'on s'y attelle très longuement. À vous de juger si la lecture en vaut la peine, rien ne vous empêche de vous arrêter à mi-chemin, vous êtes libre de lire ou non ce pavé. Nous vous remercions de votre attention et espérons être à la hauteur de celle-ci. Pour plus de facilité de lecture, voici un PDF épuré de l'article. ]Le chômage était le plus grand fléau de notre siècle : ces courbes sans cesse grimpantes, bien qu'habillement manipulées pour paraître moins hautes, affolaient les politiques et les citoyens.Perdre son emploi était devenu la crainte numéro un et le salarié battait la mesure avec les statistiques du chômage. Chaque vague de licenciement massif augmentait le zèle, la soumission, la servitude volontaire et l'acceptation de toujours plus d'aliénation chez les salariés les plus craintifs.Le chômage, pour le salarié craintif, c'était un territoire obscur, dangereux où seule la mort sociale attendait ceux qui y étaient jetés. Il se disait qu'on y perdait tout : argent, relations sociales, reconnaissance, activités.Le chômage, c'était l'exclusion, être chômeur c'était être un intouchable, comme en Inde : c'était être hors-caste, ne pas avoir d'emploi, c'était être impur. "Toucher des allocs' ", seul fait notable du chômeur pour la société, était considéré comme une sorte de perversion déflorant en douce la pureté de la société. Le chômeur, et, pire que tout, le bénéficiaire du RSA, était considéré comme des parasites immondes, des sangsues suçant l'essence de la république, donc volant les honnêtes travailleurs. Le chômage était le cancer de la société, s'abattant sur les travailleurs puis les corrompant, les transformant au passage en d'infectes feignasses.À mesure que le territoire chômage s'étendait, celui du travail prenait de la valeur : travailler, c'était faire quelque chose de sa vie, c'était pourvoir être fier de sa vie, c'était la seule façon de se construire, de construire et d'être reconnu en tant qu'homme digne de ce nom. Jamais on n'avait autant vanté les vertus innombrables du "travail" dont pourtant l'étymologie "tripalium" désignait un instrument de torture.Dans les médias, les chômeurs étaient parfois amenés à témoigner de leur lamentable état : ils disaient souffrir mille et un maux, de la dépression au désespoir, de leur solitude à leur misère. Ils tentaient de restaurer leur image en racontant leur rôle à plein temps de "chercheur d'emploi", prouvant ainsi que bien qu'exclu, ils faisaient tout pour retrouver une place correcte dans cette société. Leurs souffrances étaient réelles, les enfers qu'ils traversaient n'étaient pas que façades.Les médias, les politiques et certains travailleurs aimaient à entendre ce discours du chômeur malheureux ne souhaitant que retrouver le chemin de la normalité salariale : ce point de vue là, de chercheur d'emploi, satisfaisait leur propre vision du monde "Travail = bien et bonheur ; Chômage = mal et malheur" ; cela corroborait avec leurs plans , cela valorisait leur propre statut supérieur de travailleur, cela collait à leur vision du monde. Leur vision erronée du monde.Dans les emplois précaires et fugaces qu'occupaient parfois les chômeurs, à la pause, ça discutait et se disait tout haut une vérité taboue : le travail était une expérience sympathique, parfois totalement aberrante dans ces activités, mais avec une certaine forme de chaleur humaine, très conviviale pour se lier avec des inconnus. On dit que la fatigue fait les mêmes effets que l'ivresse, alors le contact humain ressemblait parfois à une fin de soirée, avec ces échanges délirants, ces fous rires et ces explosions de violence inattendues. Le travail, c'était sympa, surtout pour l'argent, mais fallait pas pousser mémé dans les orties. Le travail méritait son étymologie d'instrument de torture. A contrario, cet enfer de chômage était mille fois plus passionnant et la vie semblait vraiment commencer quand on terminait son contrat.Une fois la pause café passée, le collègue reparti, les précaires n'en parlaient plus. Le secret du chômage heureux était tabou, on ne pouvait pas aborder le sujet avec des non-initiés au chômage et à la précarité sans craindre le rejet, l'incompréhension, les accusations, les regards dédaigneux voire les insultes. Le chômeur ne pouvait pas décemment se montrer heureux en société, même s'il l'était.Mais pourtant, à mesure que les courbes évoluaient, de plus en plus d'intouchables de tout horizon professionnel partageaient cette même vérité :Le paradis travail, qui été sensé apporter reconnaissance, construction de soi, sens et abondance, n'était qu'un enfer apportant fatigue, usure physique et mentale, aliénation, perte de soi, servitude, ennui, stress... Tout ça pour quelques billets.L'enfer chômage, qui ne devait apporter que ruine, exclusion, ennui, perte de sens étaient en fait d'une richesse étourdissante, apportant une liberté inimaginable pour le salarié de longue durée et le chômeur néophyte.La crise était une aubaine, une occasion de se reconstruire et par là même de construire un nouveau monde, libéré du travail, libéré des fictions de la consommation, libéré de l'emprise mentale des puissants. Le chômage mettait à jour les mensonges du capitalisme, offrait un nouveau regard sur la vie : le chômeur, s'il parvenait à s'extirper de la pression sociale, des idéologies mensongères des puissants, pouvait alors reconquérir son temps, son âme et son corps, et agir, changeant par petites touches son monde, avec un bonheur solide, car complètement indépendant du matériel. Les chômeurs étaient en fait l'avenir de la société, les chômeurs étaient la solution à la crise.   "Non, non et re-non ! Le travail c'est bien, le chômage c'est mal !"   Le travail paradisiaque et le chômage démoniaque La société considère que le travail salarié (c'est-à-dire avec contrat, bulletin de salaire, etc. ; pas le "travail" en tant qu'activité) a pour vertu de subvenir à tous nos besoins : Il faut donc avoir absolument un travail. C'est la norme pour être dans la société, être reconnu par elle, pour exister pleinement, parce que seul le travail comble tous les besoins nécessaires à une vie humaine sereine.Au vu de ces considérations, le chômeur ne peut donc pas être un chercheur d'emploi, parce qu'il ne peut combler aucun de ces besoins sans le travail salarié, il doit être extrêmement mal en point.Or, certains salariés se précipitent volontairement au licenciement, certains salariés ne travaillent que le temps qu'il faut pour bénéficier du chômage, certains chômeurs semblent ne faire aucun effort pour être dans ce rôle de "chercheur d'emploi". Pires que tout, certains chômeurs semblent se complaire de leur situation !L'interprétation la moins réfléchie est donc que ces chômeurs-là (ou ces travailleurs visant le chômage) sont des fainéants sans ambitions autres que de glander, dormir, puis re-glander. Qu'auraient-ils d'autre à faire, puisque le travail c'est tout ?Donc, il faut les pousser à travailler (pôle emploi), il ne faut pas les inciter à la paresse (en baissant les allocations voire en les supprimant) et les forcer à travailler (instaurer une nouvelle loi forçant le bénéficiaire du RSA à travailler pour la collectivité).Nous avons ici une vision du chômeur fainéant  : le chômage serait de sa responsabilité, il entretiendrait volontairement cette non-activité. Le chômeur serait donc à l'image du salarié épuisé qui, vidé de ses forces, ne peut que glander devant la télé ou dans son lit. Excepté qu'il ne travaille pas, donc qu'il ne mérite pas ce repos.Mais il faut bien être aveugle pour croire que le chômage ne tient qu'à cause de la volonté de glander de ces chômeurs.Dans une autre vision, parfois cumulée avec la précédente, le chômage serait comme une maladie : le foyer d'infection se trouverait dans les entreprises en crise ou dans celles boulimiques de profit. N'importe quel salarié pourrait alors être touché par ce drame atroce, les mauvais employés comme les bons, les vieux comme les jeunes, les cadres comme les ouvriers, etc.L'allocation, dans cette vision, est tolérée, étant donné que ce n'est pas de la faute du chômeur s'il est au chômage. La sanction n'est également pas bien vue, mais par contre il faut l'aider pour contrer ce coup du sort : bilan de compétences, formations, stages, reconversion... Le pôle emploi passe donc du père Fouettard au coach réaliste qui redirige les malheureux vers des emplois plus accessibles.Le chômeur ici se doit donc d'être un bon chercheur d'emploi. De toute manière que pourrait-il faire d'autre ? Cette vision, c'est celle du chômeur victime .On pourrait attribuer ces deux visions à la droite et la gauche, mais au fond, ces visions ne diffèrent pas l'une de l'autre, ce ne sont que des détails dans la façon de percevoir le chômeur fainéant ou victime.  Une métaphore du travail et du chômage Prenons une métaphore idiote pour nous expliquer et résumer : le salarié serait l'homme complet, avec ses deux mains en activité ; et le chômeur privé d'emploi aurait sa main droite dans le plâtre.  * Dans la vision "fainéant" , le chômeur aurait fait exprès de se péter la main droite pour ne pas être actif ou aurait profité des circonstances pour prolonger le séjour de sa main dans le plâtre. * Dans la vision "victime" , le chômeur n'aurait pas fait exprès d'avoir la main dans le plâtre, ce sont les délocalisations, la crise, etc. qui aurait pété ses phalanges. On constate que dans les deux visions, la perception est la même : le chômeur est privé de l'usage de sa main droite et c'est un problème.Le chômeur partirait donc en quête d'un autre emploi pour sa main droite, en usant de toutes ces forces pour convaincre que, bien qu'il soit actuellement dans le plâtre, cette main est capable de servir les nobles desseins des employeurs. Cette main aura été préalablement "réparée" par des formations, des reconversions et le chômeur aura revu à la baisse les ambitions de sa main : elle sait écrire, mais elle peut acquérir la corne nécessaire aux travaux physiques.Son rôle de chercheur d'emploi légitimera son plâtre à la société, aux proches et moins proches : "au moins, il essaye de s'en sortir, lui." Il mérite donc l'allocation attribuée. C'est comme si, pour l'accidenté, on trouvait honnête de lui lacer ses lacets s'il avait bien suivi sa rééducation ; mais par contre qu'on le traitait de grosse feignasse, de profiteur s'il ne suivait pas les consignes du kiné, même si le kiné en question est incompétent et que suivre ses conseils est plus dangereux que profitable ( Attention on ne dit pas que le chômeur est un handicapé, patience avant de crier, il faut lire jusqu'au bout, au moins cette section, courage, on y arrive !).Or d'autres personnes aimeraient avoir ce plâtre, ils aimeraient ne rien faire et ils se complairait à voir les travailleurs s'épuiser pour lui offrir le luxe du glandage . Donc, il faut les forcer à péter ce plâtre et activer cette main valide, mais fainéante.Voilà pour la métaphore. Le discours peut être plus nuancé, plus subtil, plus dense, mais nous avons volontairement simplifié afin que les erreurs de ces raisonnements apparaissent clairement : le chômage, c'est la main droite en plâtre et la main gauche on n'en parle pas (la main gauche étant toute la vie qui n'est pas salariée, qui n'est pas lié à une activité publique). * Or le plâtre n'existe pas  : la privation d'emploi n'existe pas. Ce chômage est une privation d'emploi salarié , pas une privation des compétences de cette main droite. La main droite peut toujours agir, quelque ce soit le contexte ou le statut. Le plâtre est une illusion inventée par la société. * La main gauche n'est pas une sous main . Ces actions sont aussi déterminantes et importantes que celle de la main droite. On ne peut ignorer la main gauche, maîtresse du "privé" : son action est vitale, car elle comble aussi certains besoins décrits précédemment, d'une autre manière c'est certain, mais elle les comble aussi. * Le plâtre peut néanmoins exister ponctuellement (pour les deux mains) : parce que la main est épuisée, cassée par le travail, parce qu'il y a un nécessaire besoin de repos, besoin de reconstruction paisible. Mais ce plâtre ponctuel peut être tout aussi mérité par le chômeur que par le salarié. * La main droite est surévaluée dans notre société, surexploitée, et cela pour des desseins inutiles, parfois nocifs, contre-éthiques et destructeurs.Gauche, droite, extrême gauche, extrême droite, les verts, centre... tous sans exception partagent cette même opinion : il faut trouver un emploi salarié à cette main droite, un emploi qui lui permettra de consommer plus (= bien être + bonheur) et donc de faire croître et prospérer le pays. Or, même les végétaux et les animaux savent qu'à un moment donné, il faut s'arrêter de croître, s'arrêter de chasser, s'arrêter de vouloir être toujours plus grand, pomper toujours plus de ressources. Cette idée de croissance infinie est ridicule, insensée, même les bébés, ces mangeurs raisonnables, savent intuitivement s'arrêter de consommer quand leurs besoins sont assouvis. Mais ne nous emballons pas encore avec de nouvelles métaphores, nous avons suffisamment à discuter.Reprenons à présent les arguments des objecteurs de chômage/ des chômeurs.  "Le chômeur est responsable de son non - statut -> il ne fait pas d’effort -> c’est un fainéant> il faut le punir » Une vision erronée du chômeur fainéant Généralement les tenants de cette position auront pour argument les chiffres des emplois non pourvus (500 000 est un chiffre qui revient souvent) ; ils parleront des étrangers qu’on fait venir travailler sur nos chantiers ; ils parleront de l’immigration qui occupe les métiers de bas statut, prouvant que les chômeurs sont des fainéants.Ils préconisent donc la punition, la baisse ou l’annulation de ces allocations afin de les forcer à travailler.Mais le chômeur n’est pas responsable de son état. Explorons quelques causes précipitant au chômage ou forçant à y rester (cette liste n’est pas exhaustive) : * le travail salarié devient inaccessible grâce à l’automatisation : Les machines font le sale boulot à notre place, donc il y a moins d’emplois. Elles ne font pas ce travail qui apporte la reconnaissance, le sentiment d’être utile et dont l’activité est source de plaisir. Elles font des tâches répétitives comme poser précisément tel objet sur un tapis d’usine. C’est pour cela que nous avons bien dit « grâce » à l’automatisation : ce sont des dizaines de milliers d’emplois tous plus pénibles les uns que les autres qui ont été éradiqués. C’est une vraie évolution qu’on devrait applaudir et certainement pas regretter. Le chômage dû à l’automatisation est formidable, il permet à des milliers d’existences de ne pas être prisonnière de la chaîne, de l’enfer de la répétition d’actes totalement dénué de sens. Il ne faut certainement pas lutter contre ce chômage-là, bien au contraire, il faut l’encourager, il faut que l’automatisation gagne tous les secteurs si pénibles des industries, il faut que l’homme réussisse par la technique à se libérer de ces labeurs qui l’ont tué par le passé. Non seulement ici le chômeur n’est pas responsable de son licenciement, mais ce devrait être un aboutissement profitable pour lui aussi :Cela mérite amplement la retraite qu’est le chômage étant donné la dureté de ces métiers qui peuvent être automatisés.La société en devrait être admirative, car on trime pour en finir avec quelque chose. Tout labeur a une fin et une issue qui devrait être favorable : si on se décarcasse à cultiver des légumes, puis à les découper en fines lamelles, c’est pour se faire un bon repas, en profiter. S’il n’y a pas d’issue, la répétition de la galère que peut être le travail n’a pas de sens, même s’il y a un salaire. Donc, quand ce quelque chose est fini, cela devrait être une victoire pour tous, pas simplement pour l’entreprise qui licencie. Cette victoire devrait commencer par accepter que ces chômeurs ex-rouages aient largement gagné leur droit de ne plus être un robot pour un temps. Ce ne sont pas des assistés, ce sont de jeunes retraités qui méritent leur retraite et qui devraient même être plus payés pour cela. *   le travail salarié devient inaccessible à cause des délocalisations : La main d’oeuvre est moins chère ailleurs, notamment parce que ces droits sont limités, parce que ces journées de travail sont celles d’un esclave. Le problème est complexe, parce qu’il est d’ordre international. Cependant, ce n’est pas parce que nous avons le droit d’avoir des pauses et des journées de travail de moins de 10 heures (en principe), dans des conditions moins meurtrières que cela fait de nous d’ignobles nantis : c’est une chance que nos contrées aient évolué et cela n’empêche pas qu’une large partie des salariés triment encore violemment. Il est totalement insensé de régresser sur nos droits pour récupérer ces emplois. Le chômeur licencié pour délocalisation n’est encore aucunement responsable de son état. C’est parfois même tout son corps de métier qui n’est plus accessible dans le pays (on pense au textile par exemple). Est-il pour autant en faute ?     Faudrait-il que le chômeur renonce aux progrès sociaux de son pays en acceptant un salaire de 400 euros pour des journées de 12heures ? (une généreuse estimation) Ce serait comme imposer à un arbre ayant acquis une taille raisonnable de devenir un bonzaï : on lui scierait le tronc, les branches, on rafistolerait le tout et au final on se retrouverait avec un cadavre d’arbre. Le bonzaï quant à lui est torturé dés la naissance, il est forcé à ne pas demander trop d’espaces et chacune des branches trop ambitieuses est bien évidemment coupée : c’est le régime qu’ont les citoyens des pays délocalisés, ils sont empêchés, bridés depuis toujours. Certains brutalistes pensent qu’il faut faire de nous des bonzaïs, que nos branchages sont extravagants, irréalistes, mauvais pour la forêt. Il faudrait qu’on souffre à nouveau, qu’on fasse souffrir les autres, qu’on baisse la tête et qu’on se satisfasse des coups de fouet. Fort heureusement, tout le monde ne perçoit pas les relations sociales comme celle d’un club sado-masochiste. * le travail salarié devient inaccessible à cause d’exigences de diplômes insensées : Certaines entreprises, avec la hausse du chômage, en profitent pour devenir extrêmement exigeantes notamment en ce qui concerne les diplômes de leurs recrues. D’un autre côté, il a été créé quantité de diplômes, formations, pour valoriser certaines compétences, certains savoirs : on trouve maintenant des diplômes d’agent d’entretien, des formations apprenant à ramasser des tomates, des cours pour apprendre à se laver les mains (pour l’usine), etc.Ces diplômes, ces formations sont devenues des conditions nécessaires pour postuler à l’emploi, donc il est devenu impossible de trouver un emploi en fonction de compétences non validées par la bureaucratie, parce qu’il faut à chaque fois le bon diplôme, aussi farfelu et spécifique soit-il (on n’a pas encore vu de poste réclamant la formation « lavage de main » mais cela ne saurait tarder).Cette situation est absolument ridicule, car quantité d’emplois s’apprennent sur le tas (et l’apprentissage en condition est plus efficace) ou n’ont besoin d’aucune formation (agent d’entretien de base par exemple).De même, il est nié par les employeurs et pôle emploi la polyvalence et les qualités des diplômes traditionnels : tous ceux qui sont passés à l’université, pour un DEUG ou plus, ont tous des capacités de gestion, d’organisation, de rédaction, de rigueur méthodologique, d’usage de l’outil informatique. Ils pourraient tous aisément devenir secrétaires et même apporter un grand plus en terme de créativité, d’imagination, de rigueur et de sérieux. Mais non. Il faut le BTS ou le Master à l’intitulé exact du poste…Le secteur public est aussi touché par cette méconnaissance du diplôme, allié à une idée farfelue de la réalité : il faut, pour être instituteur, avoir un bac +5, ce qui est une aberration totale au vu de la fonction et notre société d’information, où les connaissances sont accessibles en un clic. Un élève de CP n’a pas besoin d’une encyclopédie vivante face à lui, il a besoin d’une personne qui a des compétences humaines, la passion d’apprendre, la capacité et la patience d’être un bon pédagogue. Tout autant de qualités qui ne s’apprennent pas dans les amphis. On nous répliquerait que cette hausse du diplôme a été instaurée pour qu’il y ait moins foule aux concours de profs. C’est réussi. Mais est-ce que les profs en seront meilleurs ? Le temps passé à la fac, la tête dans la théorie c’est un temps perdu en travail face à l’humain et ces vraies difficultés. (Attention nous ne disons pas que les études universitaires sont inutiles, bien au contraire ; nous ne disons pas non plus que les profs bac+5 sont moins bons que ceux bac+3. Nous disons simplement que le processus de sélection est totalement aberrant et ne sert en rien à servir la réalité du métier. « on ne nous a pas préparés à ça » ont coutume de dire certains profs de zones difficiles, c’est ce « ça » auquel il faudrait préparer).Les grands oubliés dans cette question sont les autodidactes, les talentueux qui se sont construit par eux-mêmes et qui recèlent souvent des compétences surprenantes, car « hors-cadre ». En cela, les entreprises, le secteur public auraient tout intérêt à les rencontrer… Mais non, l’offre dit « bac+5″, le concours, se base sur le théorique pas la pratique même dans les métiers où la pratique est tout, l’offre veut ce diplôme et pas un autre, même si les compétences sont meilleures et plus profitables pour elle. La rencontre fructueuse n’aura jamais lieu et l’entreprise ou l’institution n’évoluera jamais si elle ne permet à des gens « d’ailleurs » d’y inculquer leur savoir différent, leurs compétences passionnées ou leur talent si peu propice à s’exprimer sur un bout de papier.Tout est à refaire pour la question du diplôme et des formations : cela nécessiterait un très vaste élagage et tri des « bouts de papier », une reconnaissance de la polyvalence des compétences acquises par certains diplômes généraux, d’autres façons de recruter et de sélectionner, etc. * le travail salarié devient inaccessible à cause des exigences d’expériences insensées : De six mois à six ans d’expérience (voir plus), presque aucune offre intéressante ne comporte le « débutant accepté », excepté pour les métiers qui aiment à endoctriner leurs recrues selon des préceptes relativement malsains (y a encore quelque entreprises normales qui aiment les débutants sans pour autant les zombifier, mais elles sont difficiles à trouver). Les jeunes sont donc totalement coincés, empêchés de joindre certains secteurs et métiers alors qu’ils se sont spécifiquement formés pour ces emplois. Les « vieux » n’y sont pas favorisés pour autant, parce que le jeune expérimenté sera préféré.On peut se poser la question de la différence entre trois ans et cinq ans d’expérience : en quoi deux années sont-elles si déterminantes ? La différence très claire, c’est la lassitude : plus on aura passé du temps dans un emploi, même si celui-ci est passionnant, plus on en sera lassé. Tout sera devenu certes automatique, ce qui favorise la rapidité correcte d’exécution (quoique beaucoup de métiers ont tout intérêt à être lent et non automatique), mais la motivation ne sera pas la même que celui du débutant qui découvre. En cela, demander 5 années d’expérience est une aberration et ne sert à rien : celui qui a trois ans d’expérience ferait tout aussi bien. Il vaut mieux un inexpérimenté motivé qu’un expérimenté blasé.De plus l’expérience d’un métier ne fait pas la compétence dans une autre entreprise : on peut être doué dans son métier et ne pas réussir à s’adapter à une entreprise, tout comme on peut avoir passé 5 ans dans une entreprise en ne faisant jamais bien son métier. L’expérience varie en fonction de multiples facteurs différents, que ce soit la personne, l’entreprise, le contexte particulier, etc. En cela, les années d’expérience ne sont pas représentatives, comme elles peuvent l’être dans certains cas.Au final, ce que l’entreprise croit gagner en temps de formation en demandant beaucoup d’expérience sera tout de même perdu : quand on passe d’une entreprise à une autre, il faut absolument un temps d’adaptation, un temps où la personne cherchera ses marques devra s’intégrer. Elle aura sûrement plus de facilité qu’un débutant, mais cela peut aussi créer des conflits « méthodologiques ». Certes ces conflits ne sont pas inintéressants et peuvent être très fructueux, mais il faudrait laisser la place à tous types de personne pour une vraie richesse. * le travail salarié devient inaccessible à cause du piston : On parle à présent de « réseau », de « cooptage » car le piston, autrefois décrié, est maintenant vendu comme une noble qualité dont il faut se pourvoir, à laquelle il n’y a avoir honte, qu’on soit recruteur par piston ou salarié faisant jouer ses relations. C’est en effet la façon la plus efficace d’être recruté à un emploi intéressant, bien qu’à présent on doit aussi faire jouer ses relations pour être employé dans des secteurs pénibles.C’est une des causes du chômage, car celui qui n’a pas la chance d’être né au bon endroit : c’est à dire dans un quartier de fils/filles de patrons, qui ne possède pas la tchatche, qui n’a pas la chance de vivre dans le bon endroit (une adresse en banlieue est éliminatoire dans les recrutements pour certains postes), qui n’a pas la chance d’être tombé sur des amis qui ont des amis qui cherchent à recruter n’a même pas la probabilité infime d’être recruté.On pourrait nous rétorquer que se faire un réseau, c’est un art qui demande du travail et des compétences et qu’en cela, avoir un réseau c’est déjà être méritant. Mais quel est ce travail ? De la tchatche, de la sociabilité, de la communication, des compétences d’éloquence et de la persuasion (on est poli, on aurait pu dire de la manipulation), de la séduction, du contrôle de son image. Est-ce que ce sont des qualités nécessaires pour un bon graphiste ? Non. Est ce que ce sont des qualités qui serviront les métiers créatifs ? Non, excepté quand on est à son compte et qu’on se cherche soi-même des clients.Les recruteurs, en comptant uniquement sur les pistonnés et ceux qui se sont fait un réseau, recrutent donc en fonction de la faculté à se faire des bonnes relations (et donc de sélectionner ces amis uniquement en fonction des intérêts futurs, donc ce qui élimine l’authenticité et l’honnêteté des rapports sociaux), de l’agilité à se vendre (c’est à dire se faire un bel emballage avant tout, qu’importe l’intérieur du moment que le packaging attire l’oeil) donc à soigner les apparences et les communications. Qu’importe le parfum pourvu que le flacon soit beau ou déjà connu.Ce procédé est donc extrêmement discriminant, injuste et certainement pas profitable à tous les corps de métiers : celui qui passe tant de temps à soigner son réseau et son image, c’est tout autant de temps déduit des ses compétences, de la passion du métier en lui même, de ce qui fait le fond et le coeur de la profession. Mais force est de constater que beaucoup d’entrepreneurs préfèrent livrer de beaux emballages plutôt qu’un bon produit, et ils en font de même avec leurs employés en privilégiant les apparences plutôt que le fond. * le travail salarié devient inaccessible à cause des contrats : Beaucoup de chômeurs seraient enchantés de travailler, même dans des métiers réputés difficiles, mais le grand problème se situe au niveau des contrats de travail proposés : les CDD, les mi-temps (20 heures voire moins), les CDI minuscules (4heures/semaine ; eh oui, ça existe encore…), l’intérim de courte durée, les extra payés au SMIC et même un peu au-dessus qui n’apportent pas d’argent. Pire encore, il enfonce dans l’enfer financier. Prenons un exemple :> La personne travaille à mi-temps pour un CDD de deux mois. Elle gagne en tout 1700 euros pour ces deux mois. Elle a déclaré son changement de situation, ce qui a entraîné une radiation discrète. Il lui faut un mois pour son dossier de réinscription soit pris en compte : donc le mois suivant le contrat, elle perd 500 euros. Mais la plus grande surprise vient de la CAF : celle-ci lui réclame 1800 euros, 1800 euros qu’elle n’a jamais touché durant ces deux mois de travail (elle n’a touché que 600 euros d’APL). Donc si on déduit effectivement les APL touchées, on obtient 1200 euros, mais la CAF fait un savant calcul où le CDD de deux mois se transforme en 4 mois temps plein.  »Cela ne vaut pas le coup de travailler dans certaines situations, dit l’agent avec franchise. Pour avoir travaillé deux mois à mi-temps, le chômeur aura gagné 100 euros de plus que s’il n’avait pas travaillé…. Veinard ! Certains serveurs rapportent que s’ils acceptent et déclarent des extra, ils sont déficitaires de 60 euros pour avoir gagné 40 euros.Le travail salarié dans bon nombre de professions est bien trop mal payé et ces contrats minuscules empêchent de gagner de l’argent suffisamment. Le chômeur pourtant accepte ces contrats, pour travailler, même s’il sait que cela ne mènera à la perte, que c’est déraisonnable. C’est dire l’absence totale de fainéantise de certains chômeurs… Pourquoi ce stéréotype chômeur=fainéant en l’état actuel du marché du travail ? Les raisons sont nombreuses , nous ne serons très certainement pas exhaustifs dans notre réponse. Cependant, nous tenions à expliquer une raison qui pousse à haïr le chômeur (parce que nous avons pu l’observer in vivo ) : la dissonance cognitive. Une expérience (Festinger et Carlsmith, 1959) sur la dissonance cognitive a un protocole assez révélateur pour notre problématique. L’expérimentateur ment au sujet de l’expérience en lui disant qu’il va effectuer un travail très intéressant. Or il s’agit de tourner des chevilles en bois d’un quart de tour, encore et encore, pendant une heure. * Dans une condition de l’expérience, le sujet est bien rémunéré en fonction de la pénibilité de la tâche (20$, ce qui équivaut à présent à 160$ actuels) * dans une autre condition, il est mal rémunéré. (1$, ce qui équivaut aujourd’hui à 8$ actuels) Le sujet fait le travail, il est payé et ensuite on lui demande s’il a trouvé le travail intéressant ou non. * Si les sujets ont été mal payés, il mentiront à leur tour (parfois sans s’avouer ce mensonge) dans une évaluation en disant que le travail était très intéressant. * Si les sujets ont été bien payés, ils seront honnêtes et diront dans l’évaluation que le travail était inintéressant.Pour expliquer simplement, la dissonance est un bug provoqué par la situation incohérente : le travail est présenté intéressant – il ne l’est pas du tout – et on est mal payé en plus – on n’a donc aucune raison de l’avoir accepté et continué ; contrairement à l’autre condition qui est plus cohérente, car on est bien rémunéré en fonction de la pénibilité, donc le mensonge premier de l’expérimentateur n’a pas de prise. Dans la situation d’incohérence, l’individu cherche une cohérence et il la trouve dans le mensonge de l’expérimentateur qu’il répète à nouveau, ce qui résout la question de la mauvaise rémunération (« ce n’est pas grave si c’est mal payé, parce que c’est intéressant »).Cette situation d’incohérence, on la retrouve à l’échelle de la société : on nous ment sur les valeurs du travail, on nous ment sur le fait qu’être travailleur résout tous nos besoins, etc. L’employeur peut rajouter des mensonges par dessus, en promettant des promotions et avantages qui n’auront jamais lieu, etc. Cependant, comme dans l’expérience, le travail est inintéressant, pénible, ennuyeux. Et comme dans l’expérience, on est généralement mal rémunéré en retour, du moins ça ne comble pas tout les besoins de la pyramide de Maslow.Donc la dissonance cognitive, ce fameux bug d’incohérence, est encore plus énorme que dans la l’expérience. Certains vont donc trouver d’autres points d’attache à leur métier (l’amitié entre les collègues, le fait que ce soit pire ailleurs, etc.) ou encore par cette phrase « c’est mieux que d’être au chômage », « c’est mieux que de rester à rien faire comme tous ces chômeurs ».En effet, la dissonance est résolue se comparant à ces voisins de précarité, en se faisant plus méritant qu’eux.Comme on le voit très nettement, le problème ce n’est pas le chômage, le chômeur, le problème c’est la dissonance apportée par leur situation, l’incohérence de la situation : on leur dit que le travail c’est bien, ça remplit les besoins > or c’est faux > et en plus ils sont mal rémunérés pour cela. Donc leur esprit justifie, trouve des explications, des interprétations, se compare à autrui même si ce n’est pas comparable. Il s’agit là de retrouver une forme de sens à ces injustices pour ne pas être en situation insupportable de conflit mental à son propre sujet. Or le conflit mental est source de changement, il est salvateur quand on décide d’y faire face et de le résoudre.Le problème est donc l’idéologie du travail par rapport la réalité du travail (qui n’a strictement rien à voir avec cette idéologie) et cette injustice perpétuelle de la loi de réciprocité bafouée (cette loi étant « je te donne, tu me donnes en retour de façon réciproque, égale). Le problème n’est pas le chômage. Le problème n’est pas les chômeurs. Le problème est dans le travail.Si vous voulez plus de détails et en savoir plus sur la dissonance cognitive, je vous invite vivement à consulter ces liens :  « Le chômeur ne peut pas aller bien, parce que le travail et ce qu’il fournit sont le pré-requis au bien-être, au bonheur. »   Cette vision est partagée par les deux « clans » adverses, cependant on constate dans la réalité que : * Le travail ne résout pas les besoins de la pyramide de Maslow, même dans certain cas ceux élémentaires lié à la survie (nourriture, logement). Et le sommet de la pyramide est très rarement atteint. * Les aberrations administratives et les contrats pas assez rémunérateurs font que le chômeur perd de l’argent à accepter certains contrats. * Le travail, par le temps qui y est passé, empêche le bien-être : il casse physiquement, mentalement, il empêche de réfléchir et de trouver des réponses pérennes pour combler véritablement ces besoins et construire son bonheur. * Tous les besoins de la pyramide de Maslow peuvent être comblés hors du circuit du travail salarié. * La forte consommation que permettent certains salaires n’est pas un critère valide pour construire un bonheur durable. On peut être fier et heureux de sa vie avec peu, et malheureux dans l’opulence. « Le chômeur est une victime, il faut l’aider » Cette vision a au moins le mérite de ne pas répudier les allocations, de ne pas accuser le chômeur de méfaits dont il n’est pas responsable. Mais elle reste problématique à bon nombre de niveaux : * Le pôle emploi est totalement incompétent et impuissant en la matière, son objectif premier étant de caser n’importe qui dans n’importe quel métier pour faire baisser les statistiques de chômage. La personne qui suit à la lettre l’aide du pôle emploi est cassée, parfois humiliée et déniée dans ce qu’elle a construit (diplôme, expériences, connaissances…). * Or, on empêche la personne d’évoluer en lui coupant ses allocations chômages si elle déclare avoir repris ses études. * Les formations, les stages proposés par le pôle emploi sont en fait une façon pour les entreprises d’avoir de la main-d’oeuvre gratuite et elle n’apporte que peu d’évolution en terme de compétence. * « aider le chômeur » suppose qu’il a un problème personnel, un défaut dans sa capacité d’adaptation qu’il faut corriger. Donc on en revient à la vision de départ, au « chômeur fainéant » excepté qu’ici on le considère à côté de la plaque. * « aider le chômeur » suppose qu’on considère qu’avec de l’aide, on pourrait lui trouver un emploi approprié. Donc qu’il y a suffisamment de « bons » ou du moins honnêtes contrats à pourvoir. Là encore on dénie la réalité, comme dans la première vision. Le chômage n’ira qu’à la hausse (avec quelques fluctuations de temps en temps), quel que soit le parti qu’on mette au pouvoir, droite, gauche, centre, extrême droite ou extrême gauche. Mais… la réalité du chômage est dure   Ce qu’on a vu précédemment se rapportait plus au point de vue que peuvent avoir certains salariés, certains « dissonants cognitif », certaines personnes ne connaissant pas le chômage, certains hommes politiques ou personnalités aliénées culturellement (c’est à dire ne connaissant pas la réalité du travail comme du chômage).Nous allons à présent nous placer à côté des chômeurs, qui, on le comprend très bien, peuvent ne pas être convaincus par notre audacieux titre « le chômage, la solution à la crise » et considérer le chômage comme un enfer.Nous ré-enfilons pour cette partie le costume du hacker social, car nous voyons autant d’opportunités de faire bouger les lignes, de se construire pour bouger les lignes, dans le travail salarié que dans le chômage. L’activité de hacking social y est certes différente, mais elle est bien présente chez le chômeur « alternatif » (on aurait pu l’appeler le chômeur heureux, mais le terme est déjà pris et ne nous convient pas complètement).Revenons donc à l’aspect morbide du chômage, à cette idée que le chômage c’est l’enfer, que la réalité du chômeur est dure. En effet, il est absolument vrai que certains chômeurs vivent leur non-statut comme un enfer, et cela dans des domaines que nous allons explorer un par un pour y voir comment notre chômeur-alternatif-hacker-social s’en sort. * L’enfer administratif du chômeur Les interactions avec pôle emploi sont parfois humiliantes, violentes et dramatiques. Pour plusieurs raisons, notamment celles-ci : – c’est une machine bureaucratique, à l’instar de la CAF, de la sécurité sociale ou des impôts. Comme toute administration publique, on a vite fait de devenir chèvre, et les agents aussi : entre les papiers requis, les papiers manquants, les normes de l’administration « c’est par téléphone que cela se règle » « non, pour ça il faut prendre rendez-vous », les localisations changeantes « non c’est pas votre agence, ici », la recherche du bureau (les agents sont en compétitions pour trouver un bureau libre), les incohérences « on a bien reçu votre courrier, mais pas les documents que vous dites avoir envoyé », les erreurs qu’on vous attribue « on n’a jamais reçu votre dossier », le manque de formation des agents « le métier dont vous nous parlez n’existe pas », le manque d’agents, la lenteur d’enregistrement des infos, etc. Les chômeurs y pètent littéralement les plombs, les agents y affrontent la violence, la tension du pôle augmente, tout le monde stresse, et plus personne ne semble pouvoir réellement contrôler la machine bureaucratique, ni ces agents, ni les usagers. Le monstre de papier est indomptable est parfois franchement sadique. Il en est de même pour toutes les autres enseignes administratives, dans différents styles. - Les entretiens : ils consistent essentiellement à vous faire rentrer dans des cases « réalistes » et vous ôter tout espoir d’avoir un métier un tant soit peu intéressant. On y apprend que son diplôme n’a strictement aucune importance, ainsi le doctorant qui aura eu le « malheur » de faire de la restauration durant ses études sera casé dans la recherche d’emploi en restauration. Qu’il n’espère pas prétendre à chercher mieux ou différent, ce petit snob ! C’est une première forme d’humiliation, qui nie en douceur toutes vos compétences les plus pointues, qui nient vos qualités, vos différences, vos envies de polyvalence (on rentre dans une case, pas deux !). – les propositions de formations/ de stage : le pole emploi fonctionnait au chiffre (nous ne savons pas si c’est toujours le cas, nous parlons d’un temps avant les immolations, et nous espérons qu’il ait changé) : il ne s’agissait pas là de chiffre d’affaires, mais de chiffre de chômeurs. Il fallait que les agences baissent leur taux de chômeurs, donc il fallait les caser à tout prix dans des stages, des formations ou les radier dès que possible. Il s’agissait par exemple d’inciter le bac+5 en littérature de suivre une formation l’aidant à rédiger son CV ; de faire participer l’informaticien à une sorte de cours sur la façon d’accéder au site web de l’agence (c’est-à-dire entrer son identifiant et cocher des cases…) ; d’offrir de la main-d’oeuvre gratuite à Leclerc (et bon nombre d’entreprises autres) ; etc… Ce sont tout autant de faits qui humilient le chômeur, lui fait perdre toute confiance en lui, le pousse à la dépression et au désespoir. – Les radiations surprises  : elles consistent à couper du jour au lendemain les allocations et poussent certains à s’immoler. Ces radiations sont signe d’une rentrée d’argent de zéro euro pour un temps indéterminé, dépassant souvent le mois, vu que les re-inscriptions sont parfois très lentes. Et essayer de chercher un emploi avec zéro euro en poche, c’est impossible : vous ne pourriez même pas prendre le bus pour aller à l’entretien. Comment peut-on avoir un heureux chômage avec cet enfer administratif ? – En n’ayant jamais confiance en la machine bureaucratique, défaillante du pôle à la sécu et en étant aussi administrativement chiant que celle-ci. Il ne s’agit pas là d’être chiant vis-à-vis des agents, ils sont aussi victimes que le chômeur du système défaillant de leur administration. Concrètement, le chômeur alternatif s’arme toujours de sa mallette de paperasse à chaque inscription ou requête. La vision de la mallette en question suffit parfois à ce que l’agent revoie à la baisse ces demandes de papiers.-le chômeur alternatif n’hésite pas à s’assurer que le problème est réglé, que tout est enregistré, si possible il demande un papier le confirmant. Il le fait avec convivialité et professionnalisme. Le chômeur alternatif n’a aucune envie de s’énerver, c’est fatigant et ça ne sert à rien.- quand le chômeur alternatif répond à des courriers, il photocopie en triple (voire plus) tous les papiers liés à la requête, colle son matricule et ses coordonnées partout à l’encre noire ineffaçable, agrafe le tout solidement, joint une lettre détaillant toute l’affaire dans ses moindres détails (photocopié et conservé évidemment), il l’envoie à la poste avec recommandé s’il en a les moyens ou la dépose en main propre, demande une confirmation orale de la bonne réception du dossier (voire écrite). La procédure semble excessive, mais en fait, même avec toutes ces précautions, les administrations sont encore capables de perdre un papier et de vous accuser de ne pas tout avoir envoyé (si par exemple on oublie les agrafes). Donc il va les appeler et aller sur place pour redemander confirmation au moindre doute.- Le chômeur alternatif, s’il cherche encore un emploi, n’espère pas une quelconque aide du pôle emploi dans sa quête : il sait leur impuissance et il sait que les gros recruteurs du pôle (ceux dont on voit perpétuellement les annonces) recrutent beaucoup parce que les employés démissionnent beaucoup, les conditions de travail étant souvent déplorables. Ce qui explique au passage pourquoi tant d’emplois sont non pourvus : ce n’est pas une question de fainéantise, c’est une question légitime de survie, car certains jobs sont un enfer peu rémunérateur (voire moins rémunérateur que le chômage, un comble).- Tant que c’est possible, le chômeur alternatif évite toute interaction avec le pôle emploi : les entrevues avec le pôle sont généralement mauvaises pour le moral. Bien que des agents soient sympathiques, l’ambiance seule du pôle est rédhibitoire. De plus, les agents étant surmenés, le chômeur alternatif, par son absence de requête, leur permet de s’occuper de ceux qui le veulent encore. Plus les années passent, plus on constate dans certaines régions que le pôle n’arrive plus à harceler quiconque de rendez-vous infructueux, ce qui est une excellente chose pour tout le monde.- Certains chômeurs en transition ne s’inscrivent tout simplement pas au pôle emploi. – Les chômeurs heureux préconisent la dissolution de ce genre de service administratif :>  » comptez au total combien d’argent les contribuables et les entreprises consacrent officiellement « au chômage » et divisez par le nombre de chômeurs. Hein ? Ça fait sacrément plus que nos chèques en fin de mois, pas vrai ? Cet argent n’est pas principalement investi dans le bien-être des chômeurs, mais dans leur contrôle chicanier, au moyen de convocations sans objet, de prétendus stages de formation-insertion-perfectionnement qui viennent d’on ne sait où et ne mènent nulle part, de pseudo-travaux pour de pseudo-salaires, simplement afin de baisser artificiellement le taux de chômage. Simplement, donc, pour maintenir l’apparence d’une chimère économique.> > Notre première proposition est immédiatement applicable : suppression de toutes les mesures de contrôle contre les chômeurs, fermeture de toutes les agences et officines de flicage, manipulation statistique et propagande (ce serait notre contribution aux restrictions budgétaires en cours), et versements automatiques et inconditionnels des allocations augmentées des sommes ainsi épargnées. » Manifeste des chômeurs heureuxRappelons pour le « détail » que pôle emploi a dépensé 500 000 euros pour son logo, ce qui équivaut à environ 416 allocations de 1200 euros (donc bien plus large que ce que reçoivent habituellement les chômeurs) et 1035 allocations RSA (pour une personne seule). Le directeur de pôle emploi reçoit 275 000 euros par an ce qui équivaut à 229 allocations chômage (même calcul que précédemment) par an et 569 allocations RSA. Pris différemment, le salaire de ce directeur aurait pu faire vivre 20 personnes relativement confortablement ou faire survivre 47 personnes sur un an.En ces temps où la presse ne cesse de parler des dettes de l’unedic, réduire (en premier lieu) ce pôle emploi qui ne sert à rien serait une façon de récupérer des fonds.La baisse substantielle des revenus créée une fracture entre le mode de vie d’avant et celui de chômeur : en effet, les chômeurs les moins préparés à leur état ont pu accumulé crédits, charges importantes, mais qui étaient gérables quand les revenus étaient plus hauts et surtout fixes. Le chômage n’a rien d’un statut régulier : radiations surprises, grosse coupe dans les allocations à chaque heure travaillée, baisse progressive des allocations, calculs à retardement de la CAF (c’est à dire maximum d’allocations en période faste de travail, baisse importante voire dettes de plusieurs centaines d’euros en période de vache maigre). Les charges ne peuvent plus être suivies, les imprévus deviennent ingérables et pour beaucoup, la seule solution est de s’endetter encore à nouveau.Certains chômeurs peuvent aussi se retrouver sans argent du tout : avoir moins de 25ans sans avoir travaillé de sa vie et être étudiant (pas de RSA ni d’allocations chômage autorisé pour eux, même sans bourses ni aide des parents), les radiés, les malades (s’ils déclarent leur maladie, les allocations chômage sautent, la sécu reprend le relais, mais il faut parfois des mois pour qu’elle verse le moindre centime). Et là, c’est l’enfer, parce que sans argent on ne peut même pas essayer de travailler. Comment le chômeur alternatif arrive à s’en sortir ? En regardant un peu les portefeuilles sur rue 89, force est de constater que certains chômeurs et précaires gèrent admirablement bien le peu d’argent.Les anti-pauvres verraient dans cette affirmation la preuve des abus d’allocations, des sales combines, des fausses déclarations, du travail au black, de la vente de drogues ou autres produits hors circuit officiels. Pour certains, c’est vrai. Ce sont des solutions à leur survie : faute de trouver du travail, ils se débrouillent pour vivre comme les autres. Leurs « sales combines » ne les rendent pour la plupart pas riche, mais smicards. [spoiler breaking bad] On est bien loin des revenus de Walter White. [fin de spoiler breaking bad] Mais pour d’autres, et c’est l’immense majorité, pas d’illégalité, pas de sales combines ; ils se débrouillent en vivant différemment.- Les chômeurs alternatifs se sont lestés de toutes charges trop pesantes : finis les crédits, finis les loyers exorbitants (en renonçant à vivre à Paris par exemple), finis les achats irréfléchis, fini la consommation ostentatoire. Ils ne dépensent que pour des produits dont ils ont vraiment besoin et qu’ils ne peuvent obtenir autrement que par l’achat.- certains chômeurs alternatifs sont spécialistes des bonnes affaires et gestionnaires hors pair : ils vont à la chasse au solde, au gratuit, mais sans jamais s’égarer à l’achat impulsif, irréfléchi. Ils n’achètent pas parce que c’est 50% moins cher, mais parce qu’ils ont besoin de cet objet, qu’ils l’ont traqué et patienté jusqu’a sa promotion.-Les chômeurs alternatifs savent que l’argent est rare, donc dès qu’ils en obtiennent plus, ils ne dépensent pas tout et conservent le maximum de côté pour se parer au pire (radiation surprise, indu CAF, ordinateur ou voiture en panne, etc.).- ils consomment les « produits » culturels avant de les acheter. Autrement dit, ils piratent comme tout le monde. Ils s’épargnent ainsi l’énervement d’avoir perdu des euros pour bouse vidéoludique et récompensent les oeuvres qui le méritent vraiment. Évidemment, le chômeur alternatif est pourvu d’une carte de bibliothèque lui permettant d’offrir à volonté de la nourriture pour son esprit. Il peut donc se nourrir culturellement et intellectuellement bien plus que n’importe quel salarié (parce que le chômeur a le temps et l’énergie), c’est une chance qu’il saisit à son maximum avant d’être obligé de laisser son cerveau ou son corps à un employeur.-Le chômeur alternatif sait que le mode de vie des travailleurs plus aisés que les smicards n’est pas possible pour lui et, avec le temps, il arrive à ne plus se comparer à eux et ne plus être jaloux. Cela passe par un dé-formatage, des prises de conscience des vraies richesses de la vie qui n’ont rien à voir avec des Rolex, des voyages à Tahiti ou autres luxes. Il sait qu’on peut vivre dans l’opulence, mettre des costards à plus de 5000 euros et être profondément malheureux, s’ennuyer et ne trouver aucun sens à sa vie. Il sait qu’on n’a pas besoin d’être propriétaire pour commencer à être heureux et trouver la vie palpitante, c’est un travail sur soi qui peut se faire dans n’importe quelle condition matérielle. Ce n’est pas « baisser les bras » face à l’injustice du partage des richesses, bien au contraire, c’est choisir une alternative : la première voie serait de vouloir acquérir toujours plus de richesse afin d’avoir un statut enviable, c’est l’idéal de la société de consommation, c’est devenir le « winner » ; le chômeur est ici chercheur d’emploi assidu, luttant contre les temps morts, cherchant à rejoindre la société par tous les moyens, étant admiratifs des « winners » ; la deuxième voie, c’est le contraire : le « winner » est haï, détesté, on le combat, se moque de lui, on lui attribue tous ces problèmes, on veut voir sa tête coupée pour prendre un peu de sa part de gâteau. On y vit dans un perpétuel énervement, on est tout le temps en colère et on renforce la puissance des « winners » ; la troisième voie, l’alternative, celle à laquelle nous aspirons, ne s’énerve pas, ne hait pas, ne combat pas, n’envient pas les winners ni quiconque : on construit, on teste, on bidouille, on expérimente d’autres voies. Il s’agit autant de s’amuser, de profiter de la vie, être heureux, que de chercher des solutions au fonctionnement de la société, notamment le fameux « partage de gâteau ».Notons au passage que pour vivre mieux le changement, mieux vaut couper toute antenne diffusant les idéologies de la consommation : ne travaillant pas, l’anesthésiant télévision n’est plus nécessaire au chômeur qui devrait plus nécessaire en pleine possession de ces forces mentales non vidées par un exploiteur quelconque. C’est le bon moment pour dire stop à la télévision donc, mais aussi aux magazines de consommation (les féminins et masculins, exclusivement tournés vers la société de consommation et ne diffusant aucune information), à Facebook qui n’est qu’une vitrine promotionnelle des amis qui accroît sensiblement la mésestime de sa propre vie, et trouver d’autres centres d’intérêt plus profitables. La réalité, par exemple…- les chômeurs alternatifs ne délèguent plus à la société de consommation l’ensemble de leurs besoins et leurs problèmes : c’est-à-dire qu’ils font par eux même, en réparant, bricolant, bidouillant, s’occupant d’autrui, produisant et préparant (et pas forcément de la méthamphétamine). Ils contrent sans le savoir contre l’obsolescence programmée en réparant et bidouillant ; ils contrent là aussi sans en prendre conscience la malbouffe en préparant leurs plats, voire en cultivant ; ils s’occupent de leurs proches (enfants ou personnes âgées) ; Ils prêtent tout autant qu’on leur prête, ils rendent des services et on leur en rend en retour par loi de réciprocité ; etc.Les résultats sont une baisse importante des dépenses, une fierté de faire par soi-même, un sentiment d’accomplissement (lorsqu’on mène une tâche d’un bout à l’autre), une hausse de la qualité des produits de consommation utilisés pour soi et l’entourage, plus de respect de l’environnement, de meilleures relations sociales avec ces proches et l’entourage aidé, et, plus globalement, les retrouvailles avec des activités sensées, qu’on effectue d’un bout à l’autre, dont on profitent directement, qui aident directement son entourage, et qui s’organisent dans un projet éthique.Attention, le chômeur n’est pas systématiquement à l’image d’un retraité cultivant son potager et préparant à manger pour toute la famille : les compétences non agraires sont aussi mises à profit ! On pense à l’informatique, aux hackers de tous poils, aux créatifs, aux bricoleurs, aux gens ayant un don pour les relations sociales, aux bénévoles, aux pirates qui font un véritable travail d’archiviste en mettant en ligne des « produits » culturels introuvables ailleurs, aux activistes, aux artistes, aux intellectuels qui continuent la recherche en dehors des institutions, etc. Leur point commun est qu’ils produisent du gratuit, qu’ils le partagent, et qu’ils reçoivent en retour du gratuit, des services, de la reconnaissance. Ils sont extrêmement utiles à la société tout en détruisant la société de consommation pacifiquement et positivement.Le seul inconvénient de ces activités est le temps qu’elles requièrent, les compétences qu’elles nécessitent parfois. Cependant, le chômeur est celui qui est le plus riche en temps.Les chômeurs néophytes ou même les salariés forcés de se reposer rapportent parfois cet ennui : ils préféreraient être au travail, y suer, s’y fatiguer, pas même pour le salaire, mais simplement parce qu’une fois chez eux, ils s’ennuient. Et cela, même en ayant une grande famille, il s’ennuie. C’est un phénomène qui nous était particulièrement difficile à comprendre, mais qui s’explique assez simplement : quand une personne a eu l’habitude d’un certain train de vie, le changement de rythme provoque un certain choc. La routine est brisée, on démarre un cycle de vie qui demande à ce qu’on s’occupe différemment, qu’on s’organise différemment, bref, tout est à reconstruire. De grandes vacances, un grand arrêt maladie, la retraite, le chômage, toutes ces situations sont un choc, une rupture nécessitant une reconstruction. Et c’est d’autant plus difficile si on n’a jamais eu de nombreuses heures pour soi et son entourage, car on n’a jamais expérimenté la liberté. C’est aussi pour cette raison que beaucoup de salariés très longue durée prennent les chômeurs pour des fainéants : ils pensent que le chômage est une sorte de week-end prolongé, que les chômeurs y font les mêmes activités que le salarié au repos, c’est-à-dire glander, se reposer, se distraire, se détendre, s’occuper un peu des affaires de la maison ou des proches. Or cela n’a rien à voir, le chômage est une autre façon de vivre, qui se gère tout autrement. Le chômeur serait-il donc un actif ?   – On l’a vu précédemment l’enfer financier et l’enfer administratif demande une gestion qui est un travail à part entière, se planifiant à long terme pour éviter les situations d’urgence. C’est une occupation très différente de celle du salarié longue durée, quoique le salarié précaire connaisse aussi ce travail de prévention des situations catastrophiques. Plus le chômeur est expérimenté, plus il sait gérer, moins cette activité est prégnante.- le chômeur alternatif a le temps de se construire : en développant des compétences/passions qui lui serviront ainsi qu’à des proches ou des inconnus, en cultivant ses connaissances sur le monde et ses problématiques, en réfléchissant sur le vrai sens qu’il veut donner à sa vie, en regardant en face ce qui a motivé ces choix jusqu’à présent, en jaugeant ce qui avait de l’importance ou non, en regardant les influences subies, celles dont il ne veut plus et celles qui ont un impact positif, en regardant ces conflits mentaux et en cherchant comment les résoudre une bonne fois pour toutes. Le but est l’apaisement de l’âme, le développement d’outils et compétences qui apporteront un vrai plus à sa vie, et cela quelles que soient les situations où il se trouve. Cela n’a rien à voir avec le fait de se mettre à la broderie pour « passer le temps » (horrible expression à notre sens), il s’agit de commencer à rédiger sa vie et mettre en oeuvre ce script tel qu’on l’entend, tel qu’on l’estime juste, tel qu’il nous semble en cohérence avec le monde dans lequel on vit. C’est par exemple, faire le constat que la vie de travailleur comme celle du chômeur tel que la société l’entend ne nous convient pas ; c’est faire le constat qu’en effet, on est réellement dégoûté de l’industrie agro alimentaire et ses produits, que l’agriculture moderne et ses fruits gonflés à l’eau et l’engrais nous débectent ; c’est accepter en soi ce profond désaccord et commencer à mettre en oeuvre ce désaccord, concrètement : en s’exilant à la campagne, en faisant de l’agriculture telle qu’on l’entend, proprement et avec qualité ; c’est connaître le succès de cette démarche et commencer à la partager avec tous, améliorant au passage les techniques ; c’est devenir tel que Pierre Rabhi, par exemple.Dans une version rurale, c’est prendre par exemple conscience que sa façon de travailler était problématique ; or, on adorait pourtant notre métier avant de rejoindre l’ex-entreprise ; c’est prendre conscience que l’organisation nous poussait à prendre les gens pour des crétins (pour augmenter la productivité, on se débarrasse plus vite d’un client quand il est considéré comme idiot) ; c’est alors mettre fin à cet ex-conflit mental en s’entraînant à travailler différemment, c’est à dire en formant le beau-frère à l’informatique et en testant d’autres techniques pour qu’il arrête de faire planter sa machine continuellement ; puis c’est trouver des nouvelles façons efficaces de convaincre son entourage d’utiliser Linux et des logiciels libres, par exemple ; etc…- Donc le chômeur, en se construisant a le temps de construire pour autrui : c’est la suite logique de l’action et cela se fait d’abord avec l’entourage proche, les voisins, les associations voire à plus grande échelle. Cela se fait en ligne comme IRL, en testant, en partageant, en échangeant, en expérimentant.Pour résumer, on pourrait dire que le chômeur se créé un autre emploi, qui peut être une réinvention de son métier d’origine, de ses passions, mais toute la différence c’est que cet ouvrage est libéré des contraintes organisationnelles, des contraintes physiques et mentales (on va à son rythme, on se distrait comme on veut, on travaille où l’on veut, etc.), libérées de la domination et des rapports de puissance. Cet ouvrage peut être social, en investissant auprès de ses proches, de son entourage, dans une association ou ailleurs ; il peut être activiste et se rallier à un mouvement (attention que ça ne vire pas à la manière d’un travail salarié, avec ses rapports de domination et ses manipulations) ; il peut être bénévole, dans une association ; il peut être totalement novateur, créatif, original ; il peut être activiste sans même qu’on s’en rende compte, ce sont toutes les activités qui aident autrui à sortir de la société de consommation en les formant, en les nourrissant, en les aidant à gérer différemment, en les invitant à l’autonomie ; etc.C’est également retrouver le goût des choses bien faites, de la bonne manière, avec le temps qu’il faut : c’est retrouver une lenteur salvatrice essentielle a l’ouvrage bien fait, avec les temps de réflexion, de pause permettant de profiter de l’activité en question sans qu’elle devienne un enfer, c’est renouer avec la solidarité et la convivialité naturelle, parce non, nous ne sommes pas des individualistes cyniques misanthropes, ce sont les organisations (travail, commerces, médias…) qui nous poussent à penser de cette manière pour des raisons de rentabilité.La société nous dit que c’est le travail qui crée le lien social. Force est de constater que oui, même dans les métiers les plus abjects, c’est souvent le lien social avec ses collègues qui motive à pointer chaque matin, qui maintient éloignée l’envie de démissionner.Le travail mélange les gens et ses personnes d’horizons divers vivent côte à côte à partir d’activités qu’ils partagent. Cela a le don de créer des amitiés, des histoires d’amour, des histoires d’amant, des histoires d’ennemis, des groupes et des contre-groupe dont les ragots, les bêtises et les plaisanteries créant une forme de vie sociale parfois très intéressante.Le chômage prive de ces petits univers sociaux, de ces clusters de vie sociale mouvante, des rires partagés avec ces inconnus d’hier, de ces activités barbantes qui pourtant ensemble sont rehaussées d’intérêt. Le chômeur

Read more

Popular videos

Un adorable chiot s’endort sur un bébé

Une queue de rongeur…dans leur baguette

Quand nous nous réunissons au stade…

Triste nouvelle chez les cancres de…

PSG.Ibrahimovic : « Grâce à l’équipe, j’ai…

Voir tout

Copyright © 2015 WebRadar. All rights reserved.

A propos de nous
Contact

A whisky bien né, la qualité n'attend plus le nombre des années – Tout