ZEROSECONDE.COM: juillet 2004 (par Martin Lessard)

ZEROSECONDE.COM

Impacts du numérique sur la communication, notre société, nos vies.

Godel et le web semantique

À partir d'une discussion entre Karl et Vincent-Olivier sur le web sémantique, la conversation s'est postée en ligne avec une série de billets sur l'avènement (ou non) de l'intelligence artificielle. Vincent-Olivier insistait sur le fait qu'inéluctablement la méthode de réduction de problème (the unbearable inevitability of discretization) permetterait d'émuler l'intelligence humaine.

Jusqu'ici je posais un scepticisme ferme face à sa certitude. Le formalisme et la communication semblent aller dans des directions opposées et ne permettaient pas à la machine de saisir l'intelligence discursive derrière la sémiosis humaine. Pour suivre le débat entre Vincent-Olivier (VOA) et moi (ML) dans l'ordre:
(VOA)Discretization 1/2,
(ML)sémiosis humaine 1,
(VOA)Discretization 2/2,
(ML)sémiosis humaine 2,
(VOA)Semantic web et le (ML)présent billet

En revenant au web sémantique, Vincent-Olivier a précisé sa pensée en affirmant :
"A semantic web query engine able to identify from free, unstructured, unindexed, markup-less text, poems that have bird as metaphor for freedom is not simply intelligent, but also more intelligent than the vast majority of humans at this very task."

Il y a une théorie dont j'ai entendu parlé il y a longtemps et qui, je crois, a influencé inconsciemment ma décision d'être sceptique face à l'intelligence artificielle. C'est la théorème de Gödel sur l'incomplétude. Je vais en sortir les grandes lignes et montrer comment elle peut alimenter la discussion.
En 1931, Kurt Gödel a démontré que pour n'importe quelle branche des mathématiques, il y aura toujours des propositions qui ne pourront pas être prouvées vraies ou fausses à l'intérieur de cette même branche. En sortant de cette branche (en sortant de ce système) il est possible d'aboutir à de nouvelles règles et de nouveaux axiomes. Mais ce nouveau système possède lui-aussi des propositions invérifiables sans sortir de nouveau du sytème. D'où le nom de théorème d'incomplétude.


En clair, il démontre, théoriquement, que tout système logique, aussi complexe soit-il, est incomplet. Incomplet dans le sens que le système ne peut prouver toutes les propositions vraies qu'elle contient, sans sortir d'elle-même pour avoir cette preuve.

Nous ne pouvons donc jamais être sûr en utilisant une méthode formelle que certains axiomes arithmétiques ne mènent pas à des contractions. Tout système utilisant la logique formelle est donc "incomplet", c'est à dire qu'elle détiendra toujours plus d'énoncés vraies que d'énoncé vérifiables.

Un système d'intelligence artificielle, s'il veut acquérir de la connaissance, doit pouvoir vérifier lui-même les énoncés vraies. Le théorème de Gödel semble contredire la possibilité que la machine soit plus intelligente que l'Homme à cause de la limite des axiomes qu'elle utilise pour avoir une connaissance du monde, alors que nous sommes capables de découvrir inopinément des vérités.

Je ne suis pas expert en la matière, mais en relisant là-dessus, j'ai pu retrouver au moins la source de mon scepticisme et pourquoi je pensais que l'intelligence discursive est un puissant réquisitoire pour la superiorité insoupçonnée du langage humain contre la machine. En fait j'aurais dû commencer par ce théorème, puisque mes autres arguments reposent implicitement là-dessus. Ce n'est que maintenant que je fais le lien.

Mais ça ne veut pas dire que j'ai raison car je dois maintenant prouver dans quel cas celà s'applique au web sémantique.

1. Gödel a seulement démontrer que "vrai" et "démontrable" divergent. Est-ce que le web sémantique peut s'en passer?
Je crois que l'engin de recherche de Vincent-Olivier qui "découvre" des relations sur le web a besoin de les prouver. Si non, elle se base sur des "vérités données" et nous avons alors non pas "un" mais "des" web sémantiques (un par domaine explicite).

2. Gödel assume que le système en question est cohérent. Est-ce que le web sémantique doit être cohérent?
Je crois que l'engin de Vincent-Olivier doit se baser sur des axiomes pour acquérir de la connaissance (en créant de nouveaux axiomes) donc sur un système cohérent. Si non, comment ferait-il pour résoudre les contractions (ce que le web doit contenir en grande quantité).

3. Le théorème de Gödel présuppose une logique formelle. Est-ce que le web sémantique doit uniquement se baser sur logique formelle?
La méthode de résolution de problème par "discretization" me semble demander une logique formelle (pour briser un problème rencontrée de façon efficace). En utilisant une "mathematical newspeak", qui d'après Vincent-Olivier augmenterait l'efficacité de la communication, on doit être bien obligé de passer par un langage formel.

Encore, ici, ça ne prouve en rien que j'ai raison. Tout au plus, qu'il existe peut-être des pistes pour le web sémantique qui ne marche pas à grande échelle et de façon universelle. Un système qui se baserait sur une logique formelle pour naviguer dans un web de "free, unstructured, unindexed, markup-less text[s]" devrait rencontrer des problèmes fondamentaux qui nous empêcheraient de les appeller "intelligence artificielle" (au sens que je l'entends ici). Mais est-ce que la "discretization" fait partie de ces voies cul-de-sac? Tout dépendrait alors de la méthode employée, donc. Mais en tant que concept il est possiblement une bonne solution.

Une intelligence "partielle" utilisant la "discretization" pourrait être plausible sur le web, à mon avis, avec ces deux points:

a. Un système pourrait arriver à prouver suffisamment d'axiomes à l'intérieur de lui-même pour être autonome (sans prétendre à l'exhaustivité) et interpréter de façon suffisante afin de réussir le test de Turing.

b. Ce qui est prouvé n'a pas besoin de paraître vrai aux yeux des humains.

Mais je ne suis pas sûr que celà ne conduira pas, quand même, à de multiples web sémantiques...

Intelligence artificielle et sémiosis humaine-2

Vincent-Olivier a sorti la semaine dernière la dernière partie de son très attendu post sur the unbearable inevitability of discretization.

Il y aborde plusieurs points que je résume ici :
1. L'humain, en apparence "complexe, subtile et nuancé", peut être modelisé pcq il fonctionne en suivant de très nombreux patterns cognitifs plus simples qui eux peuvent être modelisés.

2. L'intelligence peut être simulée (intelligence mimetism) car cette intelligence humaine n'est que la valeur relative de l'efficacité et de l'universalité cognitive.

3. En possèdant le bon niveau de détail et avec des systèmes suffisamment simples, il est possible de recréer cette complexité (-à la manière des nanotechnologies qui recréent la matière si je comprends bien-).

Faisant suite à sa première partie il précise l'idée que l'intelligence artificielle (AI) suivrait une destiné inévitable basée sur ces prémices. Des tests de pertinence permetteraient de se mesurer à l'homme sur le terrain de l'intelligence et même éventuellement de le dépasser comme Deep(er) Blue a battu Kasparov aux échecs. Seulement, cette vérité est "the unbearable inevitability of discretization", car nous, humains, ne sommes pas prêt à accepter les conclusions que cela implique, notamment la démonstration de notre illusoire "intelligence".

Petit retour en arrière
Les premières discussions de visu avaient comme référence principale le web sémantique (il faut dire que Karl Dubost était présent). Dans mon précédent billet, je décrivais à Vincent-Olivier les fondements de notre scepticisme envers son enthousiasme cybernétique (voir Intelligence artificielle et sémiosis humaine).

Mais voilà, le titre du billet, malgré la conjonction ET, semblait opposer les deux termes. De fait, en écrivant "intelligence artificielle" je touchais un sujet beaucoup plus vaste et Vincent-Olivier a réagit promptement pour m'écrire que mon point de vue exposé sous-entendait clairement que "therefore AI is impossible" !

Je ne sais pas s'il est possible de prouver que "le AI soit impossible". En tout cas, j'en ai aucunement la preuve. Tout au plus mon billet citait les précurseurs de la cybernétique et quelques réflexions sur le fait que la formalisation de l'information et sa communication tendait à s'exclure mutuellement. Ce qui m'avait permis d'émettre des doutes sur le AI.

Par contre, en retour, j'ajouterais que "l'absence de preuve" de son impossibilité ne permet pas de conclure therefore AI is possible. Affirmer "the unbearable inevitability of discretization" n'est aucunement une preuve en soi, ni une relation nécessaire de causalité. Tout au plus, il illustre d'une méthode (fascinante) qui pointe dans cette direction. Mais cela ne démontre pas si pratiquement elle est utilisable pour un très grand nombre de phénomènes discontinus et distincts (ce que j'estime que l'intelligence requiert). Clarifions notre pensée : définisons d'abord ce que j'entends par AI et puis ensuite que j'attend de l'AI. Nous finirons par les questions qui alimentent mon scepticisme.

L'intelligence artificielle
L'AI a connu des succès du côté de la simulation d'expert en situation de résolution de problèmes ou de planification (système expert. Elle est aussi reconnu pour ces processus associatifs, de reconnaissance et de catégorisation (système connexionniste). À moins d'avis contraire, elle n'a pas franchi (de façon satisfaisante) la barrière du langage naturel pour rendre compte d'une intelligence discursive découlant de l'usage de nombreux systèmes de symboles que l'on retrouve dans les complexes réseaux d'échanges interpersonnels au niveau de la société humaine (système d'apprentissage symbolique automatique).
Pause. Il est toujours malaisé de parler de l'intelligence artificielle en général, alors ici j'utiliserai AI dans son troisième sens (donné pour le système d'apprentissage symbolique automatique) que l'on peut inclure, si on le souhaite, dans la catégorie du Strong Artificial Intelligence de Searle et dans laquelle s'inscrit le "web sémantique" (sur lequel nous reviendrons dans un autre billet).

L'hypothèse cognitiviste généralement admis pose que le substrat biologique est celui du "hardware" physique sur lequel est installé le "sofware" de l'esprit humain. Je crois que c'est à quoi se réfère Vincent-Olivier. Mais cette approche soulève des problèmes de modélisation cognitive : elle ne permet pas de reconstruire la complexité sémiologique et social de l'intelligence discursive.

L'intelligence discursive
Par "intelligence discursive" j'entends cette faculté chez un sujet qui découle des relations intersubjectives propres aux sociétés humaines où chacun est simultanément une instance partielle et une source de production de cette intelligence collective. Et par "sujet" j'entends ce noeud entre le biologique et le social où se construit "l'intention" de communiquer.

Pour égaler la cognition humaine le AI doit donc :

  • Utiliser les langages naturels;
  • Être flexible, s'adapter et opérer en temps réel dans un environnement riche et complexe;
  • Tirer parti de l'environnement et de l'expérience (acquérir des capacités en se développant);
  • Être autosuffisant dans une communauté sociale et manifester une conscience de soi.


Voilà donc posé ces conditions qui permettent d'affirmer que nous sommes bien en présence d'une "intelligence artificielle" ou non.

Si certains souhaitent apposer une image, disons que je ne vois pas le AI comme les êtres que l'on retrouve à la fin du film AI (de Spielberg), ni comme un robot d'Azimov. Disons plutôt que Hal 9000 dans l'Odyssée de l'espace de Clark serait le moins caricaturale.

Il serait fascinant de pouvoir modèliser une architecture qui supporterait ces conditions. La "dicretization" dont parle Vincent-Olivier se propose de remplir ce mandat (en autant que l'on trouve le niveau de détails approprié) par un système calculatoire perfectionné qui adviendra inévitablement. À moins d'une mauvaise interprétation de ma part, il se réclame ici du cognitivisme (une cognition structurée comme un système de symboles-types, immuables, intemporels, en nombre fini) et du connexionisme (une cognition émergeant d'une organisation distribuée et auto-adaptative d'agents actifs ou réactifs) pour croire cette venue inévitable.



Mes réserves
Je souhaiterais dépasser une définition de l'intelligence comme capacité de créer des "relations entre..." (car on doit alors admettre qu'un ordinateur en général est "intelligent", car il peut aujourd'hui créer de telles relations entre les données et tirer des conclusions).

J'exposerais mes réserves sous forme d'hypothèse-question:


Hypothèse 1 : les corrélation esprit-matière n'a été jusqu'ici, à ma connaissance, que descriptive et non pas explicative (Vincent-Olivier citait "l'homme qui prenait sa femme pour un chapeau") : il est effectivement intéressant de connaître la région du cerveau où se passe l'activité cérébrale, mais ça n'explique pas le pourquoi. Comment alors évoquer des relations nécessaires si la neurocognition ne permet pas faire de lien entre ce qui se passe dans la matière et ce qui passe dans l'esprit? Je suis conscient que cette hypothèse se base sur l'incapacité actuelle de la science de répondre à la question. Mais elle illustre pourquoi la "discretization" ne peut être vu comme inévitablement la solution pour créer le AI.

Hypothèse 2 : Puisque la pensée origine de l'activité de la matière (du cerveau), donc la base fondamentale qu'est la physique quantique ne vient-il pas modifier la donne? La nature aléatoire de la thérorie quantique permet d'ouvrir le débat sur ce qu'est la volonté (notion problématique dans un monde déterministe -or l'approche de "discretization" présuppose ce déterminisme (voir les recherches sur le quantique et la conscience). Cette approche, toutefois, repousse la question à un autre niveau (nous ne savons pas plus pourquoi la conscience apparaît) mais elle repousse ici aussi la décision de conclure tout de suite à l'inévitabilité de la "discretization" comme réponse pour créer un AI.


Hypothèse 3 : Le foisonnement d'un arbre de décision qui tiendrait en compte des connections entre les (10 à la puissance 15) synapses multipliés par les innombrables états mentaux, combinés à la sémiosis intersubjectives m'apparait trop colossale pour une informatique basée sur des tables de vérité (sachant qu'une table pour n ensembles, son nombre de composition est 2 exposant n)) il me semble que la logique reste inapplicable en pratique avec n au delà d'une certaine magnitude. Pourrait-on alors conclure que le niveau approprié de "discretization" offrirait trop de "possibles" à computer : la puissance de calcul pour gérer le tout serait tout simplement astronomique donc, pratiquement, inaccessible? Un peu comme ce qu'engendrerait comme coût énergétique l'envoi d'une fusée à la vitesse de la lumière. Théoriquement possible mais pratiquement impossible. La machine humaine serait-elle alors la seule à possèder cette capacité de faire des résolutions de problèmes de "haut discursif" (autrement dit la machine basée sur une architecture classique de von Neumann serait par sa structure interne inapte à atteindre ce territoire?).


L'intelligence discursive ne me semble pas avoir dévoilé sa mécanique interne de façon à laisser le AI prétendre qu'elle se résume seulement à une somme d'éléments discrets computables. Il me semble que sa complexité recèle encore de nombreux défis: notre recherche symbolique associative en temps réel et notre processus d'apprentissage par déduction et analogie, au niveau humain, ne fonctionne pas dans la vie de tous les jours par réduction de problèmes ("discretization"). Il existe peut-être une autre manière...

Peut-être que la magnétude que j'envisage n'est pas si grande, peut-être que la mécanique quantique ne possède pas d'écho significative à notre niveau pour fabriquer un AI pragmatique, peut-être que le cerveau n'est pas le modèle à suivre pour émuler l'intelligence. Mais je serais curieux de connaître le point vu de Vincent-Olivier, ou d'autres lecteurs, à cette étape de notre discussion, sur "the inevitability of discretization" comme piste inéluctable pour un AI au sens que j'ai évoqué plus haut, ou, du moins, dans quel contexte précis elle verrait jour.

30 raisons d’intégrer les cybercarnet en salle de classe

Roberto Gauvin propose 30 raisons d'intégrer les blogs en salle de classe:

- Développe l'écriture, la création et l'imagination
- Pour intégrer les TIC
- Remettre les travaux dans les cybercarnets
- Communication avec autrui
- Développement personnel
- Publier des travaux
- Classifier des travaux
- Faire parvenir des travaux à l'enseignant(e)
- Parler entre eux
- Discussion sur les TIC
- Documents toujours disponibles
- Élèves peuvent accéder à leurs travaux
- Possibilité d'avance à son rythme
- Poser des questions à l'enseignant(e) ou à d'autres élèves
- Écrire ses découvertes
- Bulletin, portfolio
- Communication (parents, élèves, enseignant(e)) pour connaître
le vie de classe
- Appréciation des élèves ou de l'enseignant(e)
- Parler de la journée vécue
- Forum de discussion sur un sujet quelconque
- Insérer des notes ou de l'information
- Utile pour des projets tels des textes d'opinion
- Facile à donner des directives ou explication de
travaux (communication)
- Apprendre le français
- Écrire des messages en faisant attention aux erreurs
- C'est plus intéressant qu'une rédaction
- Facilite les travaux de collaboration et l'entraide
- Discuter de sujets qui intéressent les élèves, en science par
exemple
- Développement de l'esprit critique
- Les projets de groupes se prêtent bien aux cybercarnets
- Activité de recherche, on peut avoir une section pour les liens de
site web.

QuiEst Roberto Gauvin?
(QuiEst? Qu'est ce que c'est?)

Post-scriptum du 8 octobre 2004 : Anne Davis en cite 45 autres (en anglais)

Intelligence artificielle et semiosis humaine

Vincent-Olivier Arsenault sur son blog raconte sa soirée lors de la dernière rencontre RSS Meetup.

Sur la défensive, toute la soirée, il expliquait comment il voyait l'intelligence artificielle (AI) devenir une réalité (lointaine -peut-être - mais assurément il allait en faire partie - et de son vivant s'il est chanceux).

Étant présent, je peux vous dire qu'il y a eu un joute oratoire enlevée où Vincent-Olivier Arsenault était à peu près seul à défendre sa vision contre David Baron, Karl Dubost, Lucas Gonze et moi-même.

Karl Dubost, surtout, jouait à l'escrime pour provoquer des étincelles et des ouvertures, mais la conséquence, un mois plus tard, a été mise par écrit : il ne semble plus réceptif à quiconque n'a pas sa vision (quoique son post le dit de façon très positive : aller au fond de ses idées et ne pas se laisser décourager par des ceux qui ont failli).

Dans ce sens, je vais expliquer pourquoi nous avions des réticences à croire en son projet. Ici, il n'est pas plus question de prouver que son projet est desespéré, seulement qu'il est dans la lignée de nombreuses recherches qui remontent très loin:

Boole 1854 "Investigation of the Laws of Thought";
Frege 1879 "Ideographie: Langue de la pensée pure conçue à l'image des formules de l'arithmétique";
Russel 1918, "The Philosophiy of Logical Atomism";
Carnap 1922, "Der logische Aufblau des Welt".


Ignorer ce passé rend le chercheur condamné a se faire reprocher sa "naïveté", sentiment que Vincent-Olivier a peut-être ressenti ce soir-là, mais, j'espère, sans aucune teinte de méchanceté.

"Unbearable inevitability of discretization", vraiment?

Je ne prétends pas avoir assurément tout saisi la plausibilité et l'ampleur de son projet, tout au plus disons que je l'ai interprété à la lumière de ce qu'il tentait de dire et surtout de ce qu'il a écrit:

"So that leaves us with the real debate, summarized here with 4 questions :

1. Are all the "complex, subtle, nuanced, and very human processes that
go on in our heads" really "complex, subtle, nuanced and lossless"?

2. Are they what we define as "intelligence"? Are they what we want to mimic?

3. Who says "complex", "subtle" and "nuanced" cognition can't arise from "neat first-order logic statements"?

4. Can technologies like the semantic web actually come up with some "complex", "subtle" and "nuanced" information processing?"

Sur la question de la complexité, la subtilité et la nuance, je vais me référer à Charles Peirce sur ce qu'est la "réalité":
"[It is] what, sooner or later, information and reasoning would finally result in, and which is therfore independant of the vagaries of me and you... Thus, the very origin of the conception of reality shows that this conception essentially involves the notion of community."

Le "signe" est le seul élément de communication ou d'interprétation. L'humain (et le AI, donc) consomme les signes pour créer la réalité. Mais le signe ne manifeste pas une réalité "en soi". Il n'est qu'interprététation.

La communauté (chez Peirce) opère comme un principe qui transcende au-delà des intentions de l'être interprètant, unique, que nous sommes- vous, moi ou le AI). Quand la communauté s'est accordée sur une interprétation donnée, elle "crée" un signifié qui n'est pas à proprement parlé objectif mais bien "intersubjectif". Ce qui la privilégie PAR RAPPORT A N'IMPORTE QUELLE AUTRE INTERPRÉTATION obtenue.
(Lire à ce propos : Umberto Eco Les limites de l'interprétations - particulièrement le chapitre "Sémiosis illimitée et dérivée").

Baser un concept d'interprétation sur un signifié définitif, c'est nier la façon que nous (humains) raisonnons. Je ne me rappelle plus, de Russel ou de Husserl, qui a dit que les vérités scientifiques sont des croyances. Dans le sens qu'ils ne sont que des vérités temporaires avant invalidation (comme le monde euclédien qui a laissé sa place au monde newtonien qui a laissé sa place au monde einsteinien et ensuite au monde quantique et demain à celles des cordes).

J'ai une question:
Est-ce que un AI peut interpréter, participer et comprendre le consensus mouvant, la semiosis illimitée, de la communauté (dans le sens d'une "auto-discovery")?

Sur la question du web sémantique, à moins que ce ne soit sous l'angle extrèmement réduit d'un surper test de Turing (un hyperGoogle qui "interprète par syllogisme" les requêtes malformées et épate le novice), la question a été effectivement posée auparavant, dans d'autres circonstances, et c'est en revisitant des anciens projets utopistes (qui ont échoués) que l'on peut voir les limites ou les faillites possibles d'un tel projet. (Lire à ce propos Umberto Eco La recherche de la langue parfaite dans la culture européenne).

Destutt de Tracy a écrit à propos des langue naturelles:
"nous [en] sommes réduits le plus souvent à des conjonctures, à des inductions, à des approximations".
A moins de forcer l'humain à discuter avec le AI dans un language robot, c'est plutôt à lui de nous interpréter, dans notre langue naturelle imparfaite. Il rajoute:
"Nous n'avons presque jamais la certitude parfaite que cette idée que nous nous sommes faite sous ce signe par ces moyens, soit exactement et en tout la même que celle à laquelle attachent ce même signe, celui qui nous l'a appris et les autres autres hommes qui s'en servent".

J'aime cette phrase pour trois raisons:
(1) parce qu'elle résume la problématique que Vincent-Olivier a eu lors de l'échance verbale (parlions-nous de la même chose?);
(2) elle résume le doute que nous avons, humains, de comprendre les choses vraiment;
(3) un AI aurait bien de la difficulté à comprendre cette même phrase (et c'est pourquoi je me permet de la citer ici, intégralement, avec sa tournure de phrase bien particulière).

Il n'y a pas d'univocité absolue dans une langue. Un "langage a priori" est un langage de programmation. Elle peut comporter des éléments univoques mais au détriment d'une latitude d'évocation (la logique formelle est très bien supportée, mais les commentaires dans le code se font toujours dans une langue vernaculaire). Ses limites sont celles que l'humanité a rencontré dans sa préhistoire et qui l'a conduit a développer des états successifs et plus structurés vers les "langues naturelles".

Ce point est important: prouver la présence d'universaux syntaxiques et sémantiques en les déduisant d'une langue naturelle (ce que doit faire le AI pour "apprendre") doit supposer la présence d'une métalangue.

L'expérience de Freudenthal et son langage Lincos mérite ici que l'on s'y arrête. Il constitue un modèle "d'auto-discovery". Prévue pour être communiqué par ondes aux extra-terrestres, Freudenthal a conçu un ensemble de signaux lancés par phase pour être interprétés quantativement.

Exemple : trois impulsions (***) correspond à 3. Quand la répétition régulière du message permet de conclure au constat (trois impulsions = 3), la phase suivante introduit de nouveaux signaux. ***>** ; ***=*** ; ***+**=*****.

Finalement l'apprentissage se fait par répétition du stimulus. Contrairement au dressage d'un animal, qui reconnait immédiatement l'approbation, l'extraterrestre (ou le AI) est conduit à reconnaître l'approbation par des exemples successifs et répétés.

Lincos pousse l'enseignement de concepts de temps (lié à la constance du signal) et même de règles d'interaction conversationnelles. Le projet suppose que l'on peut communiquer "pourquoi", "comment", "si", "savoir", "vouloir" et même « jouer ». Mais au prix de beaucoup d'efforts.

Ce langage présuppose les principes élémentaires d'identité, de non-contradiction et la constance d'une règle. Mais quand il assume implicitement les règles et le caractère pragmatique d'une langue naturelle, elle doit donc, par conséquence, quitter son formalisme pour intégrer des incertitudes et des imprécisions.

Lincos est le premier langage a priori que je connaissance qui démontre, pour avoir atteint cette fouche paradoxale, que COMMUNIQUER ET FORMALISER TENDENT À S'EXCLURE MUTUELLEMENT. Il démontre que quand on formalise un langage, il devient très difficile de communiquer simplement.

Freudenthal a dit "there are different levels of formalization and ... in every single case you have to adopt the one that is most adaptable to the particular communication problem; if there is no communication problem, if nothing has to be communicated in the language, you can choose full formalization".
(À propos de Lincos lireBruno Bassi : Where it perfect, would it be better)

Je ne crois tout simplement pas qu'il ne peut pas y avoir de "problème de communication" pour un AI. Problème qu'un humain peut contourner mais pas un AI. D'où mes réticences à l'endoit de Vincent-Olivier. J'abonde dans le sens de Sébastien Paquet pour ce qui est des prétentions des défendants (d'aujourd'hui) du AI (et je précise que ça ne signifie pas que je mets Vincent-Olivier dans ce que Seb appelle les "AI believers looking to sell it to unsuspecting laypeople") et de Shirky pour ce que j'appelle une tare théorique des fondements du web sémantique (qui se voudrait universel)

Je souhaite que mon commentaire, non pas paralyse les chercheurs futurs, mais permet au moins de ne pas reproduire ce qui a été produit.

The Power of Plausibility Theory

A new form of decision analysis is helping executive reevaluate risk
management. In a nice PDF, Tim Laseter and Matthias Hild wrote a good introduction on what might be a post-bayesian statistics applied to business decision making.

Despite the mathematical proof defending the logic of expected value, in
real world, we, human, aren't much rational when it comes to making
decision. We all know (do we?) current right wing ideology pretend that
the market is made of rational users. If this was true how can we
explain why we are so poor at picking the rational decision.

Let's face it. If in a coin toss, I offer you $100,000 on heads but
you'll pay me $50,000 on tails, few of you will rush to take the wager.
Although the expected value of this bet is a positive one, i.e. ((50% x
$100,000) minus (50% x $50,000)) yield effectively $25,000. At least a
logical machine would bet right away. For us, mere mortals, the
potential downside - loosing $50,000 - is simply too great.

That is because we do use our instinct : "how much can I lose?" "What's
the likelihood of a bad resulting occuring?". Logic isn't in the radar.
What I like of Plausibility Theory is that it recognizes that we people
choose knowable over unknowable risk rather than a simple examination of
(logical) expected value.

This explains why we do weight more risk over expected value. And
sometime backing up when something new is coming. Open Source Software
evangelists should take note.

Les "PR-blog"

corporateblogging est un nouveau site de Fredrik Wackå (avec une bulle sur le a final) sur le blogue en milieu corporatif.

J'aime son site pcq, outre un contenu pertinent, Fredrik y a très bien intégré le blog :

  • il ne laisse pas le logiciel de blogue contôler l'interface du site par défaut.
  • le premier écran n'est pas le dernier billet en ligne mais bien un mot d'accueil (pour décrire le but du site)
  • les côtés de la page permettent de se mettre en contexte rapidement (pour les newbis)
  • les meilleurs billets sont mis en contexte


Bref, ce que je souhaiterais faire pour mon propre carnet dès que je vais l'intégrer à mon site.

Mais le contenu est aussi à la hauteur. Fredrik cherche à introduire le blogue dans les corporations de façon raisonnée et, ma foi, il le réussit très bien. Les avantages d'un blogue, il le définit ainsi:

  • une personalité
  • une voix
  • des (hyper)liens
  • des conversations
  • une fréquence
  • un fil


" A corporate blog is a blog published by, or with the support of, an organization to reach that organization's goals. From a business perspective there are several potential reasons to blog.

  • Become the Expert
  • Customer Relationships
  • Media Relations
  • Internal Collaboration
  • Knowledge Management
  • Recruitment
  • Test ideas or products
  • Rank high in Search Engines

"But, as always, it depends on what you want. Blogs are no different from channels like video, print, audio, presentations and so on. They all deliver results - but of varying kind. The kind you can expect from blogs is mainly about stronger relations with important target groups."

À suivre de près...

Collaboration first then KM

http://www.cmswatch.com/Features/OpinionWatch/FeaturedOpinion/?feature_id=109

"Before you go and blow your entire budget on a solution that
has the same likelihood of success as a manned mission to Mars in the
same timeframe, consider piloting an open source solution with
a small group that is in dire need and eager to get started."

"This will allow you time to build your business case, learn some hard lessons about usability, and also make essential improvements to business
processes in anticipation of other groups. You will also quickly
discover the sources of any network connectivity problems and have an
opportunity to solve other persnickety (but potentially prohibitive)
technical problems before rolling out a full-blown solution globally. A
small sample of open source groupware tools available are:!"

The ‘Perfect’ Corporate ‘Elevator Pitch’ on blogging

By Lee LeFever. .
http://www.commoncraft.com/archives/000633.html

First, think about the value of the Wall Street Journal to business leaders. The value it provides is context — the Journal allows readers to see themselves in the context of the financial world each day, which enables more informed decision making.

With this in mind, think about your company as a microcosm of the financial world. Can your employees see themselves in the context of the whole company? Would more informed decisions be made if employees and leaders had access to internal news sources?

Weblogs serve this need. By making internal websites simple to update, weblogs allow individuals and teams to maintain online journals that chronicle projects inside the company. These professional journals make it easy to produce and access internal news, providing context to the company — context that can profoundly affect decision making. In this way, weblogs allow employees and leaders to make more informed decisions through increasing their awareness of internal news and events

Syndication Nation

"Syndication Nation" est un débat intéressant sur la pertinence du blog/rss (via un lien apparu sur le carnet de Sylvain Carle qui touche l'ensemble de la conférence).

Évidemment le terme "Syndication" dans le monde RSS peut porter à confusion : il ne signifie pas la même chose tout à fait dans le monde papier (la redistribution de l'information - mais sans la redevance $$$...)


"For newspapers, syndication describes a business and a business model. It's a great new source of revenue. The word tends in the media industry to be a boring little department on the side that people take for granted. The AP is sort of different in that it's a cooperative. As originally conceived, local papers could share the coverage of local events and wouldn't have to maintain local branches. On the Web, we have an aspect of this, the redistribution, without the business model."


Le web utilise la "syndication" autrement: "In the old media world, it's a way of eking out more value from existing content." Ce qui est loin d'être le cas pour les blogues. Par contre, il y a le bon vieux visiteurs qui permet de faire du Ad click avec Google.

Mais le vrai succès de la syndication, c'est l'agrégation:


"I use a tabbed browser so I can accumulate things I haven't read to read later, and I can keep on top of about 100 information feeds in maybe 45 minutes time. The payoff is that it enables you to keep on top of much more information in much less time."

"The other important feature is that if there's a feed that only publishes once a year, you don't have to forget about it, it'll turn red when there's something new there. You can keep on top of everything when it's happening. This is the Internet version of the Associated Press, which started in 1848."

opquast.org : le site des bonnes pratiques

Opquast est un ensemble de bonnes pratiques pour la qualité des services en ligne. Vous y trouverez de bonnes pratiques pour améliorer la qualité d'un site web . Par exemple, la bonne pratique numéro 90 nous indique que "La longueur du nom de domaine est inférieure à 30 caractères"; de quoi faire une belle check list de troisième tiers...

Mouvements de plaques tectoniques dans le monde du RSS

Ce sont quatre petites secousses discrètes ressenties dans le monde RSS le mois dernier montrent que les plaques tectoniques sont toujours en mouvement.

1. Microsoft avec son MSDN propose des fils web pour ses centres de développement en RSS 2.0, (ah tiens! Pas de Atom). Premiers pas, rien d'extraordinaire, mais Bill nous a habitué à plus. Attendons, ça regarde bien...

2. Yahoo Group! a entrepris d'offrir des fils web pour tous les groupes ouverts. Si vous aviez quitté ces lieux d'échanges, il y est peut-être temps d'aller faire un petit tour. C'est en RSS 2.0 (ah tiens! Pas de Atom). Le RSS dans des communautés d'intérêts, c'est le match parfait.

3. New York Times a rapatrié à l'interne la gestion de ses fils web (géré par Userland en mode expérimentale) et offre son populaire "Most E-mailed Articles" en RSS. Quoiqu'encore en mode furtif, l'avalisation de la technologie (RSS 2.0, tiens, pas de Atom) par cette institution a de quoi rassurer.

4. Google semble se pencher sur la question d'offrir le RSS pour Blogger (ah tiens!?). On se rappelle qu'en début de cet année, Google avait opté pour Atom au grand dam d'une grande partie de la communauté. Malgré l'intronisation d'Atom par la suite dans le W3, la popularité du RSS n'a jamais diminué, au contraire.

Ces secousses annoncent que des forces telluriques se mettent en place et pourraient réellement déclencher des tremblements à venir de grandes ampleurs...

Robin Millet

Robin Millet c'est :
* une dizaine de sous-domaines
* administration de cinq ou six sites
* quinze canaux IRC
* un abonné à une soixantaine de mailing lists
* un membre de soixantaine-dix communautés sur Orkut
* une patte sur une centaine de wikis
* un membre de six ou sept osbl et/ou groupes communautaires
* …
* un bon gars :)

La programmation durable

Sur le carnet d'Interstructure j'ai posté un billet sur la programmation durable ou sustainable programming, terme que je propose pour définir une programmtion axée sur les systèmes ouverts et les logiciels libres.

Je ne pense pas que ce terme ait été utilisé consciemment dans le sens que je lui donne aujourd'hui, et je crois qu'il a l'avantage de bien illustrer ce que l'on attend de cette nouvelle "nouvelle informatique", la vague de fond des standards Internet qui va s'émiscer dans toutes les sphères de la société. À lire, donc.