Mes plus fidèles lecteurs – et, Dieu sait qu’il y en a – vont penser que je fais une sorte de fixation sur le théâtre moyen-oriental. Je m’en défends. D’ailleurs je viens de regarder Gasland.

Le changement c’est maintenant

Le récent atterrissage d’Edward Snowden à Moscou a alimenté les spéculations sur sa prochaine destination. Mais le contexte global de l’affaire n’est jamais évoqué. Assumant une mission de service public d’information, votre serviteur prend de son temps pour vous expliquer ce qui est réellement en jeu.

Image

Pourquoi les Etats-Unis cherchent-ils à extrader M. Snowden ? Ce consultant en sécurité IT à la NSA a dévoilé l’existence d’un système automatisé de stockage et de traitement de l’information, connu sous le nom de PRISM. Le scandale est-il à la hauteur de l’info ? Non : PRISM n’est en effet que la face visible de la partie émergée de l’iceberg « surveillance globale des communications » américain. On se réfèrera pour plus de précisions à l’excellent article de Kitetoa sur Reflets.info, où on visualise la place de ce « Planning Tool for Resource, Integration, Synchronization, and Management » dans le dispositif  :

Image

Ce que Kitetoa a appelé la « Big picture », c’est l’ensemble de ce système stratégique global, visible sur la première image. Alors, on sait depuis longtemps que les Etats-Unis sont le flic du monde. Julian Assange ou Bradley Manning sont au courant. Même s’il leur arrive de se prendre les pieds dans le tapis quand vient le moment de transcrire en droit international des opérations du type de celle qui a permis l’interpellation de Kim Dotcom, en général, quand Washington a un objectif, les choses se font. Seulement c’est moins facile depuis quelque temps.

Quand à la fin de la guerre froide, la superpuissance s’est retrouvée seule aux commandes, il y a eu quelques cafouillages, mais en gros, tout le monde fermait sa gueule. Il a fallu les attentats du 11 septembre 2001 pour qu’on se rende compte que le colosse pouvait aussi avoir des soucis. Depuis cette remise en question de l’autorité américaine, les rouages grincent de plus en plus. Si tous ont suivi l’OTAN en Afghanistan, l’expédition irakienne n’a pas fait l’unanimité (on pourrait une fois de plus rappeler ce « non » splendide de Villepin à l’Assemblée Générale de l’ONU en 2003, mais ça ferait chauvin).

C’est que l’opération visant à réduire Saddam Hussein sentait fort le pétrole. Tellement fort en fait que les mauvaises langues ont chuchoté que la guerre pour l’énergie avait commencé. L’Iran, dans le collimateur depuis Bush père, devait être la prochaine conquête sur la liste. Sauf que si les Américains ont déjà plein d’alliés dans le secteur (Turquie, Jordanie et, last but not least, Israël), il leur restait un caillou dans la rangers : la Syrie. Bachar Al-Assad, dentiste éduqué en Angleterre, ne voulait pas le pouvoir à la base. Mais à la mort de son père, il est propulsé à la tête de l’Etat. Et on a beau être un président contraint, on peut ne pas apprécier que des mercenaires formés en Jordanie par la CIA viennent prétendre au contrôle de votre pays.

Bachar se trouve un allié de poids en la personne de Vladimir Poutine. Lui est président de la Russie depuis une vingtaine d’années. Bon, il a dû passer la main à son poteau Medvedev pour pouvoir modifier la Constitution russe et faire plus de deux mandats, m’enfin il n’a jamais été très éloigné du Kremlin. Il se trouve que la Russie est géographiquement proche de l’Iran, et même de la Syrie. Et pour Vladimir, avoir tout plein de bases américaines à côté de chez lui, ça lui paraît être une mauvaise idée. Laisser le contrôle de l’Asie Centrale à Barack, ça l’ennuie. Alors il utilise tous les moyens à sa disposition pour soutenir Bachar, les moyens légaux (veto à l’ONU), et les autres.

CentreAsie.jpg

Oui, il est illégal aux termes du droit international de vendre ou de fournir des armes à un pays en état de guerre civile. La France semble ne pas le savoir, mais les Allemands, eux, sont au courant. C’est d’ailleurs pour ça qu’ils refusent de fournir une aide militaire, même sous forme de matériel, à l’une des deux faction en présence. Et le fait que l’Allemagne dépend en grande partie du gaz russe pour son approvisionnement énergétique doit l’aider à avoir envie de respecter le droit international.

open-up-mother-fucker-FREEDOM-IS-HERE-700x499

Tout ça va de pair avec la prise d’influence croissante des BRICS sur les marchés internationaux : le Brésil dans l’agriculture, la Russie sur le plan de l’énergie, l’Inde dans l’industrie de production, la Chine dans les productions high-tech, l’Afrique du Sud dans les métaux précieux. Dans ce contexte, que reste-t-il aux Américains ? La haute technologie (cf. supra), et le Big Gun. Tous deux sont utilisés à des fins stratégiques, pour conserver le leadership global.

De fait, nous vivons dans un monde multipolaire. Mais l’Asie concentre les ressources démographiques, industrielles et énergétiques. Il y a fort à parier que dans les vingt prochaines années (et même en cas d’effondrement économique global), le centre de gravité du monde ne se déplace vers l’Est. Ce pied de nez récent de Poutine « Snowden a ‘free man’ in Moscow airport, Russian president says » n’est qu’une manifestation de ce transfert de pouvoir. La guerre civile en Syrie en est une autre manifestation.

Critique du modèle libre

Publié: 16 octobre 2012 dans Libre philosophie

Quand on aborde le sujet des logiciels libres, on a le plus souvent affaire à deux types de réactions. D’un côté, ceux qu’on pourrait appeller les fanboys, prêts à défendre le modèle corps et âme, quitte à abandonner toute argumentation logique ; de l’autre, les sceptiques, qui objecteront la plupart du temps en posant certaines questions qui font mal. Nous listerons quelques-unes de ces questions, et d’autres interrogations qui se sont fait jour suite à la réflexion menée autour de la philosophie des logiciels libres, auxquelles l’auteur n’a pas forcément de réponse.

La première des objections courantes est la suivante : comment un produit « gratuit » peut-il constituer un modèle économique viable ?

Différents modèles économiques coexistent dans le monde du logiciel libre, rappelons tout d’abord que « free » est entendu dans le sens de « libre », et non pas dans le sens de « gratuit ». Certaines sociétés proposent la dernière version de leur logiciel en payant, et les versions antérieures en gratuit. Certaines entités, comme la fondation Apache (Apache est un logiciel de serveur, qui équipe 65 % des machines en 2011, et qui possède sa licence libre spécifique, la licence Apache) basent leur fonctionnement sur le conseil, la formation et l’assistance. L’encyclopédie libre Wikipedia – qui n’est pas un logiciel, mais reste un produit intellectuel, fonctionne sur la base du mécénat. Il existe énormément de manières de gagner sa vie avec les logiciels libres, une réponse plus complète et plus rigolote en anglais est disponible ici : 11 open source business models.

Puis viennent une série d’interrogations auxquelles les réponses sont moins évidentes (même si pour les Bill Gates en herbe, on a déjà résolu la plus importante). La première concerne la capacité d’innovation. En mettant en libre disposition un ensemble de briques élémentaires, ne risque-t ‘on pas de perdre la capacité à innover ? Quand la Chine communiste ne respectait pas la brevetabilité des biens industriels, les industriels se contentaient de copier les innovations. En ne rémunérant pas le créateur, n’y a-t’il pas un risque de n’intéresser aucun inventeur ?

On pourrait commencer par objecter que la création ne naît pas forcément d’un intérêt financier direct, l’argument risquerait de paraître léger face à la complexité de l’appareil industriel. Prenons le problème autrement. Quand une société humaine veut innover, elle finance ce qu’on appelle la recherche fondamentale. C’est à dire qu’elle paie des gens pour avoir des idées bizarres et essayer de les mettre en œuvre. Pendant ce temps, ces chercheurs ne sont pas productifs. C’est pour cela que l’on finance aussi la recherche appliquée, pour essayer de valoriser les idées bizarres sus-citées. En gros, si on veut de l’innovation, il faut s’en donner les moyens, de ce côté-là, rien ne change donc.

Un autre point soulevé est celui du risque de dévaluation de la valeur-travail, par l’utilisation massive de contributeurs bénévoles. Ici je laisse la parole à Perlseb, qui faisait remarquer dans les commentaires de mon premier article : « la valeur travail ne baisse pas lorsque les bénévoles font du zèle. C’est la valeur travail rémunéré, c’est-à-dire travail soumis, ce qui n’est pas la même chose. […] Le travail (rémunéré) d’un informaticien ne sera donc pas de développer des logiciels mais de les assembler selon les besoins précis d’une entreprise. Et effectivement, ce travail d’assemblage sera nettement moins valorisant (moins créatif). » Le développeur a ses propres briques, plus celles des autres programmeurs, bénévoles ou non. Il a donc juste plus de matière première.

Le point le plus gênant reste, dans ce chapitre consacré à la critique du modèle libre, l’exigence de renouvellement. Le logiciel libre fonctionne, par rapport à l’industrie classique, en cycle court. Ubuntu sort une nouvelle version tous les six mois, en contrebalançant cette cadence par un cycle de support long de deux ans (versions LTS, Long Term Support). La survie des entreprises du libre passe par cette recherche permanente de l’innovation, et on peut se demander si cette exigence du modèle est fiable à long terme, si elle est « tenable ». Mais six mois, c’est aussi le temps qu’il faut pour faire mûrir du blé en semis de printemps… les temporalités sont encore gérables.

Dernière grande objection, et pas des moindres : « de toute façon, c’est moche et ça marche pas ». Certes, jusqu’au début des années 2000, les logiciels libres n’étaient pas très beaux, et mieux valait connaître le terminal pour s’en sortir. L’explication en est  simple: les développeurs libres n’ont pas commencé par recopier l’existant. Ils ont commencé par créer les outils dont ils avaient besoin, des outils le plus souvent sans interface graphique, c’est à dire, sans bouton où cliquer, juste un écran noir et un point d’insertion clignotant : la ligne de commande, le terminal, peu importe comment on l’appelle. Ensuite, et pour répondre à un besoin d’ouverture, ils ont commencé à écrire des interfaces graphiques. Alors bien sûr, au début, elles ressemblaient à Windows, à Office, à Photoshop. Mais aujourd’hui les recherches en termes d’ergonomie du bureau par exemple, sont légion dans le libre. Et Gnome 3, est nettement en avance en termes d’ergonomie sur, par exemple, Windows 7, alors qu’ils sont sortis en même temps. Si on n’aime pas Gnome 3 – on a le droit – on peut tester Unity, Cinnamon pour rester dans les systèmes novateurs, Maté ou XFCE si on est plus conservateur. Et si vous privilégiez la vitesse de votre PC à son aspect visuel, vous utiliser Fluxbox ou Openbox, ou pas de gestionnaire de bureau du tout. L’utilisateur a le choix.

Enfin, on peut parler des problèmes de compatibilité des jeux video. La plupart de ceux-ci sont en effet conçus pour fonctionner avec Windows. La seule solution jusqu’à présent était d’utiliser un implémenteur, comme Wine, sans que le fonctionnement de tous les jeux soit garanti. Heureusement, et ceci risque de faire sauter définitivement le pas à de nombreux utilisateurs, Steam, une boutique de vente de jeux en ligne, se propose, via l’équipe des développeurs de Valve Software (qui a réalisé Half-Life notamment), de créer un client 100 % compatible Linux. L’équipe qui travaille sur ce projet donne des nouvelles sur son blog, une version de test va être lancée d’ici quelques semaines. Les choses, pour les gamers, vont ici dans le bon sens.

EDIT le 16/10/2012 @ 11:45 : correction de coquilles

EDIT le 28/01/2013 @ 21:39 : mise à jour lien image

Bill et Richard

Publié: 15 octobre 2012 dans Libre philosophie
http://tech.arulns.com/wp-content/uploads/2008/07/richard-stallman-and-bill-gates.jpg

Impossible de trouver une image de Bill Gates et Richard Stallman ensemble

 

En 1975, Bill Gates a 20 ans. Il écrit en trente jours avec Paul Allen un langage de programmation, le BASIC, qu’il vend 35$ la copie. Début 1976, il commence à essayer de protéger son travail via une « Lettre ouverte aux amateurs », où il indique ne pas vouloir fournir gratuitement son travail. Il commence dès lors à protéger son travail en utilisant pour ses logiciels des licences basées sur le modèle classique du brevet de propriété intellectuelle américain. Microsoft naît au début des années 1980, et la création pour IBM de MS-DOS fera sa fortune. Pour la petite histoire, MS-DOS est très largement inspiré de CP/M, le système d’exploitation des machines Amstrad à l’époque.

Richard Stallman, lui, est programmeur au Massachusets Institute of Technology à cette époque. Suite à un problème avec son imprimante, il décide d’améliorer le pilote de celle-ci, soit le logiciel qui commande les mécanismes d’impression. Mais il se rend compte que la source du logiciel, c’est à dire le code écrit par les ingénieurs de chez Xerox, est inaccessible, car breveté.

Stallman, nourri à l’éthique hacker dès le début des années 1970, habitué à la coopération entre programmeurs, décide alors de lancer le projet GNU. Son idée était que si le code, breveté, ne peut être ni modifié ni – au moins – étudié, il n’était pas conçu dans le but d’être amélioré. Et qu’il ne valait donc rien pour la communauté des programmeurs. Il commence donc à écrire et à distribuer autour de lui ses propres programmes. Il attribue explicitement aux utilisateurs le droit de copier, modifier, distribuer ses logiciels, la seule condition étant que toute amélioration apportée soit elle-même « libre » d’être copiée, modifiée, distribuée.

Ces deux figures, symboles a posteriori de deux conceptions du logiciel, nous permettent de comprendre deux grandes tendances au sein du monde des programmeurs depuis la fin des années 1970 : d’un côté les commerciaux, qui écrivent le code pour faire fonctionner un produit, de l’autre, les universitaires, qui développent des logiciels pour répondre à leurs propres besoins.

Nous avons vu que si le développement coûte très cher, la copie d’une information numérique, d’un fichier ou d’un logiciel ne coûte quasiment rien. Vous ne pouvez certes pas « copier-coller » une pomme, ou une voiture. En plus des savoirs-faire, des techniques, des plans, vous auriez besoin des matériaux de base, d’un outillage conséquent, de ressources précises. Dans le cas d’un logiciel, ou de toute information, la copie, la redistribution ne coûte presque rien.

Une information numérisée ; sa reproduction illimitée quasiment gratuite : il ne manque plus à cette information que la « liberté » pour que nous entrions réellement dans la société du savoir.

Sources : Bill Gates et Richard Stallman, copie informatique

Addendum : Les quatre libertés fondamentales telles qu’elles sont exprimées par Richard Stallman résument la logique « libre » :

  • la liberté d’utiliser le logiciel
  • la liberté de copier le logiciel
  • la liberté d’étudier le logiciel
  • la liberté de modifier le logiciel et de redistribuer les versions modifiées
http://upload.wikimedia.org/wikipedia/commons/9/9a/Altair_BASIC_Paper_Tape.jpg

Le premier programme de Bill Gates, le BASIC pour Altaïr 8800

Tout d’abord, qu’est-ce qu’un logiciel ? Wikipedia nous le décrit comme « un ensemble d’informations relatives à des traitements effectués automatiquement par un appareil informatique. »

C’est exactement comme les cartes perforées de l’orgue de Barbarie. Des informations diverses relatives à la tâche à effectuer sont écrites par un opérateur humain (pour l’instant). Des trous dans la carte perforées, des instructions, des scripts, du code en informatique. Wikipedia nous informe en outre que « le logiciel est un élément indispensable à l’utilisation de tout appareil informatique. » Votre orgue de Barbarie ne produira aucun son si vous n’« écrivez » pas une carte perforée. Pour les ordinateurs, c’est pareil. Votre feuille Excel ne fera pas de calculs si vous ne lui dites pas ce qu’elle doit calculer, de quelle manière, etc.

Les premiers logiciels ont donc été conçus par les créateurs des ordinateurs, qui venaient de concevoir une machine capable de calculer n fois plus vite que n’importe quel être humain, et qui voulaient se servir de cette capacité de calcul. Les universitaires, les militaires, les sociétés à l’origine de ces machines écrivaient eux-mêmes leur code. Puis est venu le moment où deux personnes ont eu le même ordinateur, ou au moins deux machines susceptibles de comprendre le même langage. Le premier a écrit un logiciel qui permettait, par exemple, de faire des additions. Le deuxième, plus porté sur les multiplications avait écrit un programme destiné à calculer des produits.

Pourquoi le premier codeur aurait-il dû réécrire le programme de multiplication, alors que son collègue d’à côté l’avait déjà fait ? Pourquoi « réinventer la roue »? Car une autre caractéristique des ordinateurs, c’est qu’une fois que l’information a été écrite, elle est reproductible à l’infini, sans perte, et pour un surcoût infinitésimal. Ces deux programmeurs ont naturellement échangé leur travail. Le logiciel est né, « libre » d’être étudié, partagé, modifié.

Puis le réseau a fait son apparition. Deux machines parlant le même langage pouvaient communiquer, échanger de l’information via les lignes téléphoniques, à n’importe quelle distance. Et nous avons changé de paradigme. C’était il y a plus de cinquante ans.

Références : voir l’histoire de l’informatique et ARPANET

Feu

Le feu comme technique

L’histoire du logiciel, corollaire et prolongement de la complexité technique développée au cours des deux derniers siècles, devrait être le marqueur d’un saut civilisationnel. En effet, s’il est communément admis que le savoir est le pouvoir, la façon dont s’articulent ces deux piliers de l’humanité a évolué au fil du temps.

Les premiers hommes devaient s’associer pour survivre, et aujourd’hui encore, nous ne pouvons rien seuls. Le premier homme qui a su dompter le feu, en entretenant un foyer par exemple, a dû faire connaître immédiatement à son propre entourage les techniques propres à cette connaissance. Entretenir un feu ne peut être fait « en secret », ne serait-ce que qu’à cause de l’attention constante nécessaire à la perpétuation de celui-ci. Mais le premier homme qui a su faire naître le feu ? Celui-ci a dû, lui, conserver l’opacité autour de sa pratique ou, tout au moins, l’envelopper d’une aura mystique, afin de s’assurer le pouvoir.

Cette étape, si elle n’a certainement pas été la première, a pu être la manifestation la plus élémentaire de la domination par la connaissance technique. Et de ce moment jusqu’à nos jours, où des drones pilotés par des opérateurs à des milliers de kilomètres de distance peuvent ôter la vie, c’est la même chose, la mystique en moins. La supériorité technique assure la domination. Le savoir assure le pouvoir.

Nous laisserons de côté les considérations métaphysiques, car si la foi peut aussi servir le pouvoir, le propos de l’ouvrage est concentré dans les lignes qui précèdent. Nous étudierons la supériorité technique en tant qu’instrument de la domination, et les modifications de cette conception qui découlent et qui peuvent découler de la philosophie des logiciels libres. Il est de nombreux mystères inexplicables, laissons au lecteur la liberté de faire sa propre opinion sur le sujet.

Szu-Ma Chien

Publié: 28 août 2012 dans Libre philosophie

« Chao Sheh était collecteur d’impôts au Chao. Lorsque la famille du seigneur Pingyuan refusa de payer l’impôt sur la terre, il les punit en appliquant le châtiment prévu par la loi, c’est à dire en exécutant neuf de leurs serviteurs. Dans sa rage, le seigneur Pingyuan voulut le tuer.

Chao Sheh lui expliqua : « Tu es un noble du Chao et pourtant tu as violé la loi en permettant à ta famille de se soustraire à l’imposition. Si la loi n’est pas respectée, l’État s’affaiblira et d’autres États viendront nous envahir et nous détruire ; et lorsque Chao aura disparu, qu’adviendra-t-il de tes biens? Si toi, qui es un noble, tu paies tes impôts comme l’exige la loi, la société sera en paix, l’État du Chao sera fort et pacifique et toi, Seigneur, en tant que membre de la maison royale, tu ne sera pas méprisé par le monde. »

Szu-Ma Chien, historien chinois (env. 145-86 av. JC)

ImageCarte politique du monde en 2007

Depuis le début de l’opération Anonymous #OpSyria, je n’ai de cesse de m’interroger sur le degré de connaissance des acteurs de ce « mouvement », sur la qualité de leur conscience du tropisme géopolitique autour de ce pays à l’heure actuelle.

Quelques commentaires sur Reflets.info, quelques tweets de-ci, de-là, m’ont convaincu de préciser quelques notions à ce sujet, à mon niveau, et de mon point de vue.

Sur le traitement médiatique des évènements en Syrie

A l’instar de Gérard Chaliand, dont le travail a déjà fait l’objet d’un article ici, le traitement médiatique de la guerre civile syrienne me paraît volontairement biaisé (voir cette video). Sans trop s’avancer sur les responsables de cette prise d’angle, on peut raisonnablement penser que les media occidentaux soutiennent de fait l’insurrection car tel est l’intérêt de l’alliance stratégique à laquelle nous appartenons.

Le stratagème paraît d’autant plus décelable qu’il a été utilisé il y a un an en Lybie. Les motifs de l’intervention de l’OTAN en Afrique du Nord ont été révélés par la suite des évènements dans ce pays, « découverte » de gisements pétroliers, abandon de la convertibilité en or de la monnaie lybienne, divisions politiques allant parfois jusqu’au pire. On pourrait aussi évoquer l’Égypte ou la Tunisie, où l' »après » est à de nombreux égards pire que l' »avant » pour les citoyens lambda. Mais quel est donc l’intérêt de l’Organisation du Traité de l’Atlantique Nord dans le conflit syrien?

Les interventions de l’OTAN ces dix dernières années

Le 11 septembre 2001 aura été un évènement chargé de symboles, mais plus de dix ans après le choc des images, ce qui ressort entre autres, c’est que pour la première fois depuis la fin de la Deuxième guerre mondiale, les États-Unis ont été attaqués sur leur sol. On peut porter du crédit aux théories du false-flag sur cet évènement, toujours est-il que le leader du monde unipolaire issu de la chute de l’URSS n’apparaissait plus comme intouchable.

L’intervention en Irak visait à mon sens, et ç’a été le sentiment de beaucoup de citoyens du monde à ce moment-là, essentiellement un moyen pour les États-Unis de s’assurer un accès peu onéreux à de vastes ressources pétrolières.

L’intervention en Afghanistan, quant à elle, relevait plus de la manœuvre géostratégique selon moi. Regardons de plus près la carte de la région :

http://ecoles.cstrois-lacs.qc.ca/didapages/jmpeia/livres/Afghanistan/carte_afghanistan.jpg

Source

L’Afghanistan est frontalier de l’Iran, du Pakistan, et de la Chine de manière plus anecdotique. Nous avons ici une région frontalière avec un pays qui fait les gros titres depuis bien longtemps, je veux bien sûr parler de l’Iran. La ligne Irak-Iran-Afghanistan fait donc à nouveau l’objet de toute l’attention des alliés de l’OTAN depuis 2001-2003. L’Iran est sous le feu des projecteurs depuis quelques années aussi, la Syrie, quant à elle, subit depuis un an le feu tout court. Quel est donc l’intérêt de cet axe en plein continent asiatique?

Le glissement du centre de gravité du pouvoir mondial

Son intérêt, c’est d’assurer aux membres de l’OTAN, et aux États-Unis en particulier, le contrôle politique des pays de cette ligne Syrie-Irak-Iran-Afghanistan, justement parce qu’elle est au cœur d’un éventuel dispositif russo-chinois. Et de fait, si d’alliance militaire connue il n’y a pas, le rapprochement de la Russie et de la Chine fait peur à Washington.

En effet, depuis 2001, les américains n’ont plus l’immunité que leur conférait le titre de super-puissance militaire : toute stratégie frontale pouvant être déjouée par contournement (voir ici), l’acte de guérilla du 11 septembre (réel ou supposé) a agi comme acte de guerre ouvrant les hostilités.

La crise économique de 2008 ayant mis à jour les défaillances structurelles de l’économie américaine, toute intervention armée des États-Unis est perçue depuis comme un moyen basique de maintenir l’autorité dans « les provinces de l’Empire ». La Syrie aurait complété idéalement le dispositif de l’OTAN au Proche et Moyen Orient, avec l’allié velléitaire qu’est Israël.

Or, la Russie, de manière très officielle, s’est opposée à toute intervention militaire en Syrie. Ce « non » russe doit être perçu pour ce qu’il est, un signal d’arrêt aux ambitions américaines dans la région. Nous assistons donc bien au glissement du centre de gravité des pouvoirs dans le monde, du bloc Amérique du Nord-Europe de l’Ouest, vers la zone Russie-Chine. Je vous renvoie à ce sujet vers l’analyse plus détaillée de Imad Fawzi Shueibi.

Va-t’on vers une Troisième guerre mondiale?

Au niveau politique, un conflit global n’arrangerait personne : ni les États-Unis, qui y perdraient tout, ni le bloc russo-chinois, qui a des contrats ou des actifs à faire honorer par les membres de l’OTAN.

L’Europe non plus n’y trouverait pas son compte, et est d’autant plus en danger qu’elle serait exposée à la différence de l’Amérique du Nord, à des déploiement terrestres aisés.

La seule issue possible pour l’Union européenne serait de se doter d’une véritable politique étrangère commune, de se positionner sur un non-alignement du type NAM, voire de type suisse, sans négliger d’entretenir, toujours de manière commune, des forces défensives suffisantes sous commandement européen.

Et nos Anonymous dans tout ça?

Les hackers qui participent à l’#OpSyria doivent bien comprendre qu’en aidant les rebelles (armés par la CIA), ils aident le pays qui a appréhendé dans la plus parfaite illégalité Kim Dotcom, le pays qui veut extrader des non-ressortissants pour mise à disposition de contenus sous copyright, le pays en bref qui n’est pas le meilleur défenseur des libertés sur Internet.

Alors à mes yeux, dans le meilleur des cas, ils sont inconséquents, naïvement exposés au feu médiatique – et c’est pardonnable, sauf en cas de guerre civile : directement impliqués en tant que belligérants, leur cas relève du droit Pénal (De la participation à une activité mercenaire, soit au maximum sept ans d’emprisonnement et de 100 000 euros d’amende). Deuxième option, ils sont impliqués contractuellement, mais alors ils ne sont plus les gentils hackers dont on nous parle ici et .

Add. : for english-speaking readers, I can translate this article within 1~2 days. Just ask me via Twitter by clicking here, or via the comments.

Add. 2 : Les peines évoquées par le droit Pénal français ne s’appliquent qu’aux ressortissants français.

EDIT le 30/06/2012 @ 1538 : coquilles, mise en page

EDIT le 01/07/2012 @ 2113 : Ajout Add. 2, changement de catégorie

EDIT le 03/07/2012 @ 2136 : mise en page