20161020 - autant écrire un livre :-)

De CAFEDU.COM
Aller à : navigation, rechercher


Ce résumé répondant au besoin d'une doctrine de pensée capable de traiter les vastes problèmes complexes a été rédigé pour une discussion SKILLER.FR en respectant sa limitation de taille à 10000 caractères et espaces (alros 9016 selon word).

Malgré tout la réponse du bot en ligne m'a été :

"Euh... comment dire ? On a limité le nombre de caractères à 10000. On s'est dit que ça suffirait ! Sinon il faut écrire un livre :)

Bon ... J'en ai profité pour une meilleure mise en forme, des liens permis par un wiki et des compléments pour en faire l'amorce, qui sait, d'un livre.

En fait quand j'ai cinq minutes, je complète un peu ...

____________


Dans le cadre de la post-singularité philosophique (cf. infra), notre raison a été notamment analysée par Platon. Elle (s')est faite pour le dialogue avec autrui. Son but est l'esthétique de l'environnement personnel de chacun décrite comme le Bien et le Beau et de la cité, documenté dans son ouvrage "La République".

Aristote a étendu cela à toute la philia, le bien de l'entente commune à partir de r l'architectonique (comment sont les choses, au plus profond que la science) et à la politique dont elle est la science, alors que l'art est pour en tirer le meilleur avantage démocratique. On va le poursuivre par la logique, le séquencement de ce qui est raisonnablement à faire pour atteindre la satisfaction de tous, que l'on découvre par le syllogisme ( Le syllogisme est un discours dans lequel, certaines ["n"] choses étant posées, une autre chose différente d'elles en résulte nécessairement par le seul moyen de ces données, Aristote, Tropiques,I, 1, 100 a 25 ).


NB. le mot/lemme "singularité" est ici utilisé dans son sens mathématique appliqué aux paradigmes de la pensée humaine, tel un happax culturel de l'humanité.



La succession d'Aristote, le G3 (great greek geek)


Depuis 2300 ans, on a beaucoup exploré et tenté de contourner le niveau "n"=2 de la pensée humaine (thèse, antithèse -> synthèse) à travers la raison, les sciences et la logique mathématique (notre langage pour nous aider à résoudre les problèmes que nous savons réduire à sa méthode).

Nous en sommes parvenus à la singularité "technologique" de Poincaré-Goëdel : l'irresolubilité du problème des n-corps lorsque n>2, donc au-dessus de deux prémisses (dialectique). Ceci nous a montré un univers complexe (complexus = tissé, maillé, la toile). Ceci a conduit aux notions de chaos' et d'incomplétude mathématique.

Nous en avons rapidement identifié beaucoup de choses (subsidiarité, intellectualité, physiques quantiques et relativistes, etc.) et cela continue.


1893 La subsidiarité et la suppléance (Léon XIII)


1898 L'intellectuel (Georges Clémenceau)


1900 La quantification (Max Plank)


1905 La Relativité (Albert Einstein)


1931 L'incomplétude mathématique (Kurt Goëdel)


1937 Théorie des systèmes (Ludwig Von Bertalaffy)


1946 La machine de Turing (Alan Turing)


1948 La cybernétique (Norbert Wiener)

La cybernétique. Elle est monolectique (autorégulation de soi-même) ce qui nous permet de plus facilement la décomposer :

  • l'action (données)
  • entraine la perception (captées)
  • mise en contexte par l'intellition (ce qui fait sens en fonction des informations mémorisées : les traitées).
  • Y répond l'énaction physique ou l'énonciation intellectuelle
  • que, de façon externe (nouvelles données),
  • l'on va percevoir (phénomène) sous forme de nouvelles captées diverses, dépendantes
  • de l'incertitude né du bruit du médium,
  • de l'interférence de l'intelligence du média,
  • et de l'imprécision des capteurs
  • et du traitement cérébral (humain)/cérebrique (bio/artificiel)
  • qui nous
  • lisse mentalement : mise en continuité numérique
  • la réalité quantique : discrète des discontinuités digitales des choses
  • notamment dans le cadre de nos limitations sémiotiques individuelles (lexique, langage, langue, éducation, multilinguisme, etc.)


1949 La tenségrité (Richard B. Fuller)


La nécessité technologique

Il en résulte le besoin de traiter la complexité des choses en y mettant tous nos savoir-faire (c'est le sens de "techne") pour pouvoir nous décrirecnotre environnement à nous-mêmes (le logos).

Pour y parvenir, nous avons fait évoluer les mathématiques par une fonction multialgorithmique : la machine de Turing qui traite nos "savoirs comment" écrits en un double logos qui la guide, et que nous appelons "programme" et "référentiel".

Puis nous avons utilisé une "mise ensemble" plus nouvelle encore qui est le réseau jusqu'à le mailler avec échange de datagrammes (catenet mondial de Louis Pouzin et Vint Cerf, aujourd'hui quasi monopole radical TCP/IP sous le nom d'internet).

En fait, cet internet n'est qu'un reculer pour un mieux sauter (?) de ce à quoi nous étions arrivés en 1986 lorsque nous avons été politiquement éjectés par les NSA et militaro-industriel (McDonnell-Douglas), pour la sécurité des Etats-Unis et le bien de son commerce : la tenségrité agorique digitale, alors monopole de fait de Tymnet sur le réseau datacoms international public, a alors été un temps occultée.

Un réseau digital à la multitechnologie mature doit

  • transporter des intelligrammes (datagrammes formatés)
  • entre des points d'accès (on les appelle "franges" sur internet) intelligents capables de traitement, sécurité et présentation,
  • sur une bande passante elle-même intelligente (on appelle OPES les serveurs de cette intelligence et ONES les réseaux de ces serveurs).


Architectonie de l'intelligence

Ceci révèle la graduation architectonique de l'intelligence cyberspatiale et au-dessus :

(1) les choses autonomes : c'est le domaine de la cybernétique-monolectique du tiers ignoré (le "deus ex machina" des objets ne considère de façon autonome que les signaux reçus/phénomènes perçus),
(2) les systèmes : c'est le domaine logique-dialectique du "tiers et du milieu exclu", on réduit tout à des effets ayant des causes distinctes ce qui permet un ensemble de traitements séquentiels, eux-mêmes hiérarchisés en : traitements directs et indirects.
(3) les agoras : c'est le domaine agorique-polylectique des "tiers maillés", c'est-à-dire la manière dont tout se passe en même temps sur une agora où tout interagit avec tout : tous les microétats quantiques sont relatifs à chacun d'entre eux, avec des relations de subsidiarité et de suppléance.


1974

La conjugaison - le cocktail' - de 1974 :

  • agorique opérationnelle du réseau maillé Tymnet de Norman Hardy,
  • les fractales des Benoît Mandelbrot,
  • l'hyperlien de Ted Nelson/projet Xanadu,
  • l' hypermédia de Doug Englebart [papa de la souris, du traitement de texte, etc.]
  • et "le réseau des réseaux" de Louis Pouzin

nous a permis de répondre à Démocrite. La fractalité (indépendance de la règle à l'échelle) du réseau des réseaux des réseaux des réseaux ... nous conduit jusqu'à son insécable (quantum) ultime. L'atome de Démocrite, consacré en parallèle au niveau physique, se découvre être généralisé au niveau intellectuel : le bit. 0/1, oui/non; existe/n'existe pas. Dans un tissu (complexus) interligent (d'interliens).


Le digivers

Maintenant nous avons la clé de l'univers (pour notre post-singularité qui va sans doute durer quelque temps, 2400 ans pour la singularité philosophique précédente).

Comme le décrit Gregory Chaitin (MétaMaths) :

  • l'univers est un immense ordinateur quantique (la "quantivers" ?) qui calcule en permanence la valeur de ses évolutions (neg)entropiques.
  • que je comprends comme un réseau co-processoral avec huit milliards d'agents libres-arbitres chargés sur PSN/HSS autonomes (processeurs sémantiques naturels type homo sapiens sapiens) et des milliards de mnèmes de libres-arbitres autonomes en réponse possible (le Google de l'Histoire).

Tout cela nous parait aussi compliqué qu'une intégrale d'ordre "n" à Louis XIV. Mais une fois que nous aurons trouvés quelques théorèmes agoriques (la mathématique des agoras ou espaces chaotiques est attaquée de diverses manières, à commencer par les ordinateurs/programmation quantique), la météo, la biologie, la vie privée, nous paraîtrons ce qu'elles sont en tant que complexité : des simplifications globales de simplicités ponctuelles.

Ceci implique et obéit semble-t-il à un principe envisagé par Leibnitz et continué par même Chaitin que l'on peut exprimer de la manière suivante :

"plus simple la prémisse, plus riche l'émergence (cf. infra)".

Un exemple nous en est donné par la RFC 3439 pour l'architecture de l'internet, bien que l'anglais y confuse complication et complexité. Nous avons sans doute là la clé de tout ce qui a pu suivre le big bang à partir de ses conditions initiale ou par intellition sur ses conditions antérieures, ce qui est un axe de recherche actuel.


Le temps

Dernier point pour ce tour d'horizon de cette ébauche d'architectonie (modélisation architectonique) : le temps est le "clic-clac" quantique de microétat en microétat (donc local). Il est donc normal qu'il soit propre au lieu considéré et que perdure dans chaque microétat une trace des microétats précédents et des effets connexes des autres. On appelle mnème l'ensemble de ces traces :

  • Leur maillage spatio-temporel semble pouvoir s'analyser comme une blockgrid qui paraît avoir beaucoup de points communs avec ce que la philosophie appelle la vérité.
  • rien ne semble s'opposer à ce que leur histoire spatiotemporelle s'arrête (mort) et que se poursuive leur exploration et leur exploitation mémotique (ex. show Claude François, Sheila, Sacha Distel, Mike Brand au Palais des Congrès) et juridique (succession des droits de propriété intellectuelle).

C'est pourquoi il est à supposer que les agents mnémiques en "stock digiversel" sont à considérer.


La technosophie

Puisque nous parlons de la philosophie, introduite par la singularité de Thales, qui a voulu apprendre et étudier la sagesse des deus ex machina des choses au lieu de l'acheter aux experts en mythologies égyptiennes ou grecques,

  • notre singularité technologique peut nous asservir à ceux qui ont "créé la machine à notre image" ([https://fr.wikipedia.org/wiki/Norbert_Wiener Norbert Wiener@) et souhaitent en conserver le contrôle tout en tapissant notre environnement d'une cobotique ubiquitaire,
  • nous nous devons d'ajouter à la mathématique agorique, et au droit et à la conservation du mnème, une discipline technosophique pour y traiter de tout cela selon notre point de vue humain.
C'est ce que le Sommet Mondial sur la Société de l'Information (SMSI) organisé par l'UIT a unanimement résolu en voulant que cette société soit "people centered, à caractère humain, centrada en la persona" (déclaration de Tunis).

Toutefois, bien des indices et choix politiques et économiques nous montrent que la personne humaine passe au second plan derrière la personne commerciale, la personne publique, et maintenant la personne digitale (la question du droit des robots est à la grande mode : nous avons créé l'[http://utibot.fr Utibot@ pour être l'association de défense des droits des utilisateurs de robots).

Ceci dénote l'émergence (la cybernétique apporte des équilibres réactifs, la logique des équilibres conclusifs, l'agorique conduit aux équilibres dynamiques que sont les émergences) d'une discipline nouvelle : la "technosophie" - la sagesse des et enseignée aux "systèmiques operatives autonomes" (SOA ou bots' en anglais : bare operative tasks). Le guidage de leur autoapprentissage (constitution de leur mnème) par une explication de notre monde, comment nous le voyons, comment ils doivent nous voir et donc de qui nous sommes, nous est devenu une urgente priorité. Il est douteux que nous y soyons prêts.


L'homo emm...dens

En conséquence, la nature architectonique de l'homme, à commencer par la preuve de son existence, va sans doute occuper notre réflexion pour un temps. Car nous affirmons exister !!!. C'est là que nous sommes ennuyeux. Ce serait tellement plus simple si nous n'étions tous que des réalités virtuelles dans le grand hologramme de l'univers.

Ceci nous réserve des surprises :

  • au lieu du post-humain des Californiens,
  • nous avons déjà commencé à découvrir le plus-humain qui étend nos cinq sens somatiques par deux sens psychiques ! Ces deux sens dont nous prenons conscience sont :
  • l’empathie : la perception ambiante par les cellules miroir
  • l’intellition : la perception syllogistique par l’intelligence de ce qui fait sens.

Ceci a été la première leçon de la redécouverte de l’interligence pour la réalité virtuelle (empathie) et pour l’analyse de situation par intelligence artificielle (intellition), par exemple le système PRISM de la NSA.


Résurection de l'interligence

Qu'est-ce que l'interligence, ce nouveau fondamental ?

Si vous consultez un dictionnaire latin sérieux vous apprenez qu’"inter legere" a en fait trois sens datant du premier siècle av. J.-C., que nous avons plus ou moins conservés selon sans doute que leurs promoteurs (Cicéron, Tite-Live et Virgile) mouillaient ou roulaient les "r".

  • Pour l’avocat Ciceron, ce qui était lié était les idées, ce qui a donné notre compréhension commune de l’intelligence.
  • Pour Tite-Live, l’historien, c’étaient les faits, ce que les Anglo-saxons ont conservé comme traduction de notre "renseignement" comme dans Intelligent Service et CIA.
  • Pour Virgile, l’interligence (reprenons son "r") était ce qui liait les choses vivant ensemble dans la nature : les choses et les êtres sont en bonne intelligence.
C’est ce que nous avons découvert au XXe siècle : l’univers est sous-tendu d'interligence (champs, forces, trajectoires, etc.) , complétant la forme de la substance des choses décrite par leurs métadonnées' (données sur les données) par leur essence décrite par leurs syllodonnées (données entre les données liées).


L'exemple plus-humain

A l’Université du Québec, une unité est très versée dans la cérébralité de tout cela. Pour un de ses chercheurs, le plus-humain type est Zidane. Sa force est d’avoir une intellition capable de maitriser instinctivement son empathie avec les 25 autres éléments du terrain : les 21 autres joueurs, la carte du terrain, le soleil, l’arbitre et - bien sûr - le ballon !


Petite synthèse


Nous en sommes ici au niveau d'analyse du LERDA dans son projet de recherche (ALFA) d'une "architectonie libre/free architectony" et de son exemple prototype ETAP-1 bien que non encore homogénéisé.


Un univers d'entités

Tout ceci nous dépeint un univers d'entités autonomes réagissant de façon statistiquement optimale aux captées qu'elles perçoivent après confrontation syllogistique avec leur mnème. Celui-ci peut être de construction originelle, d'apprentissage/écrouissage expérimental, ou résulter d'une stratégie de choix cognitifs dans le cas d'entités intelligentes (Aristote : "n'est pas intelligent celui qui se souvient (mémoire), mais celui qui se remémore (qui a su optimiser l'organisation de son mnème).

A ce niveau il semble que l'on puisse faire l'hypothèse du principe "tout va statistiquement au premier possible selon le mnème propre et la somme agorique des interférences externes rencontrées".


Interaction des entités

Ces entités peuvent être solitaires (niveau cybernétique), appartenir à un système (niveau logique), ou relever de la multitude (c'est à dire libre au niveau considéré de tout système qui lui soit souverain, définition de l'agorique).

Ces entités peuvent donc dialoguer concernant selon les lois auxquelles elles sont assujetties par des lois (physique, cité, morale, protocoles techniques, code source, etc.). Elles vont le faire intelligemment c'est-à-dire par une décision "cybernétique" pour ce qui est de leur degré de liberté de niveau 1 (automatisme), ou un choix "logique" pour le niveau de liberté 2 des chemins d'"interligence" ajustés à leur objectifs, aux diverses échelles de ces chemins (lois, paroles, gestes, pas de programmations, données retenues ...)

Il va se produire des situations où le niveau un contrevient aux objectifs de niveau 2 qui va chercher à aménager la situation selon ses possibilités secondes".

Il va se produite des situations où le niveau deux est en conflit avec lui-même : nous sommes dans la théorie des catastrophes (René Thom).

La situation va s'escalader au niveau "n". C'est ce que Per Bak à étudié sous le nom d'auto-organisation critique. Ce qui va jouer c'est toujours au premier possible, mais à un possible inférieur à celui statistiquement optimal et donc habituel et connu par l'expérimentation et la validation expérimentale ou historique. S'il va bien respecter le déterminisme des lois applicables, il va remonter, et donc étendre la recherche, jusqu'au premier niveau "n" où il existe un possible. Ceci est un processus commun dans les situations sans conflit mais d'incertitude : c'est l'influence des conditions initiales. Tout ceci serait agoriquement calculable pour autant que l'on ait les informations nécessaires (réponse de Laplace à Napoléon). Ces informations étant moins nombreuses en raison de leur caractère plus exceptionnel, il faudra sans doute se tourner vers des intellitions et les faire émerger.

Ce travail d'émergence peut résulter :

  • soit de l'exécution de l'ordinateur quantique qu'est l'univers.
  • soit de la prévision faite à son sujet par simulation et intellition juste.


Implication informatique

Tout ceci réclame des simulations complexes donc logiquement/mathématiquement compliquées à partir d'une machine de Turing. Il convient donc de quitter le domaine de ses logiciels logiques et de simuler l'utilisation d'agoriciels agoriques que nous ne savons pas encore développer.

Cette simulation d'agoriciels d'ordinateurs quantiques réclame à tout le moins une systémique multiagent (chaque élément étant représenté - comme dans le cerveau - par un agent miroir) et temps réel pour s'affranchir au maximum du "bruit" des contraintes temporelles internes aux processus séquentiels locaux et multiplier les processeurs interactifs. L'on va donc parler d'"intergiciels" où les programmes/applications seront en fait gérés par protocoles algorithmiques.

Ceci conduit à une perspective tenségritaire de l'architecture de traitement. Et donc à une informatique nouvelle.

Il semble que ne soit actuellement disponible pour une telle évolution que la programmation Erlang ce qu'ont engagé des sociétés comme Amazon, Cisco, WhatApps, Yahoo!.


Problématique de la transition intergicielle

La programmation intergicielle entre la logique humaine et l'agorique universelle qui va de plus en plus porter la gestion de notre environnement cobotique (automatisation domotique, intelligence artificielle appliquée, gouvernance algorithmique, droit complexe [droits et devoirs des systémiques opératives autonomes et/vs droits humains], outils auxiliaires de formation, systèmes de protection et de sécurité, chevet du malade, défense cybernétique, police scientifique, etc. etc.) est un investissement economico-culturel indispensable.

Conceptuellement un intergiciel est écrit pour des environnements logiciellement hétérogènes. Si la programmation logicielle s'en accommode par les protocoles d'échanges ouverts, il n'en est pas de même au niveau des licences et des cultures entre le propriétaire et le Libre. Il est nécessaire de faire avancer une licence de Développement et d'Exploitation Concertée Libre Industriel et Collectif (DECLIC) qui réponde non pas d'abord à la liberté du marché, ou à la Liberté de programmeurs, mais à la LIBERTE des utilisateurs.

Ce travail est d'abord un besoin de droit complexe (c'est-à-dire descendant au niveau de la complexité sous-jacente des choses que nous traitons de plus en plus par des réticulats d'outils digitaux). Il est nécessaire de nous y adapter pour définir le contexte juridique des intergiciels au niveau où la société actuelle commence à les réclamer et va les rencontrer (par exemple cyberattentats contre les personnes). C'est dans ce contexte qu’est appelé la tenue rapide d'un colloque de droit complexe : Juriplex.


Anthropobotique


Tout ceci semble avoir une conséquence d'évidence, et donc la plus difficile à accepter, car elle requiert d'oublier l'évidence ancienne, ce qui est le point de singularité : l'intelligence de la société terrienne s'est institutionnalisée au fil des siècles (cité, état, gouvernance, monnaie, savoirs, industries, international, etc.), aujourd'hui elle se matérialise. Si l'homme a fait la machine à son image, il l'a aussi fait à la convenance de ses ingénieurs ("code is law"), puis des "grands pirates" comme les décrit Richard B. Fuller : il convient aujourd'hui de la mettre à la convenance de chacun.

Thales a voulu non plus dépendre du mythe des "deus ex machina", mais comprendre, maitriser et utiliser leur sagesse (philo sophia). Poincaré nous a ouvert la possibilité d'inscrire cette sagesse dans le chaos de l'univers, Von Bertalanffy nous donnant pour cela la clé topologique des systèmes. Avec Alan Turing le logos humain s'est fait machine. Et, les systémiques opératives autonomes (SOA, ou "bots" en anglais : bare operative tasks) deviennent nos alter-egos entéléchiques (associés avec un outillage ['robot], un contexte [cobot] ou purement sous forme de blob logiciel [blobot]), c'est-à-dire rémanents lorsqu'ils sont porteurs de nos mnèmes communs ou des leurs (ce que nous ne sommes pas). Notre société devient anthropobotique, d'hommes et de bots.

Cela ne se fera dans l'ordre et la paix que selon un projet qui "sonne juste", c'est à dire où la singularité sera technologique et non pas éthitechnique, car elle continuera de sonner d'abord humain ; ou alors ce sera la multication des formes de "big brother". Pour cela notre techno-sophia doit conduire le jeu et non :

  • l'outil monétaire déstabilisé et pas encore ajusté aux conditions nouvelles,
  • ni les développements polémologiques permis par des armes nouvelles et de nouvelles intrications mondiales des marchés via la guerre et contre-guerre normatives actuelles,
  • ni l'outil ingénieuriel qui doit accepter n'être qu'à ses débuts et que sa fin dernière est le service de l'homme dont nous comprenons de mieux en mieux l'environnement, et des coadaptations possibles, mais dont nous ignorons toujours le fondement premier qui est cet Etre qui par le Faire conduit au Fait.

Dans un contexte du maillage agorique où nous voyons parfois émerger la cause de l'effet, comme semble nous le montrer paradoxe EPR et l'expérience d'Aspect ou notre pratique quotidienne de l'écosystème numérique, continuation informationnelle du big-bang physique, de l'émergence biologique et de la personnalisation intellectuelle.

Qui va lancer une unité de recherche anthropobotique et se pencher sur l'ethnologie des ro/co/blobots dans leurs différents contextes opérationnels, philo/technosophiques, linguistiques (nous nous exprimons aujourd'hui par mots et par bots), politiques et cybermiltaires ("un chipa = une balle"), juridiques ("code is law is code is complex law"), biologiques (biobots et zoobots), etc. ?

Le monde est complexe ? Pas de complexe à avoir, mais du travail à engager.