Portail:Logique
Une page de Wikipédia, l'encyclopédie libre. Ce portail a pour but de présenter la logique qui est un des domaines les plus importants de la recherche et de la connaissance. Son objectif est de mettre en avant les différents aspects de cette discipline dans une perspective pluridisciplinaire. La logique est en effet une composante essentielle aussi bien de l'informatique et de la linguistique que des mathématiques et de la philosophie (et tout particulièrement de la philosophie analytique). Ce portail s'adresse donc aux mathématiciens, aux philosophes, aux passionnés d'intelligence artificielle et à tous ceux qui veulent approfondir leurs connaissances d'une discipline en plein bouleversement - ou bien les partager. Si vous voulez vous-même participer aux articles concernant la logique, il existe une page Projet Logique qui permet aux différents contributeurs de coordonner leurs efforts.
Jean-Michel BESNIER - Bandeau - CNRS
Jean-Michel BESNIER Né en 1950, Jean-Michel Besnier est agrégé de philosophie et docteur en sciences politiques. Il est professeur de philosophie à l'université de Paris IV – Sorbonne (chaire de Philosophie des technologies d'information et de communication) et dirige le DESS " Conseil éditorial et gestion des connaissances numérisées " dans cette même université . Depuis 1989, il appartient au Centre de recherche en épistémologie appliquée (CREA), laboratoire du CNRS et de l'Ecole Polytechnique axé sur les sciences cognitives. Il est actuellement membre du Comité scientifique de la Cité des Sciences et de l'Industrie de La Villette, du Comité d'experts scientifiques de l'ANVIE (Association nationale pour la valorisation interdisciplinaire de la recherche en sciences de l'homme et de la société auprès des entreprises), du COMEPRA (Comité d'éthique et de précaution de l'INRA), et du CSRT (Conseil supérieur de la recherche et de la technologie). Haut de page
Théories de l'information
Patrick Juignet, Philosciences.com, 2011. Nous allons essayer de préciser la notion d’information telle qu'elle est utilisée depuis Shannon dans les théories scientifiques dites "de l'information". Ces théories ne traitent pas de l'information au sens ordinaire, puisqu'elles excluent toute signification. Pourtant une confusion a été savamment organisée. Nous nous contenterons de rappels brefs, car les acteurs de cette geste informationnelle sont trop nombreux pour être tous cités et leurs travaux sont très spécialisés. 1/ Shannon le fondateur Un nouveau domaine de recherche apparaît en 1949, avec un livre intitulé The Mathematical Theory off Communication, écrit par l’ingénieur et mathématicien Claude Elwood Shannon. Cette incertitude a été définie par Shannon grâce à une approche probabiliste. Cela a aboutit à la formule : H (i) = - Somme pi log2 pi dans laquelle pi est la probabilité ni/N d'apparition de l'évènement i. 2/ L'extension informatique À partir de là l'informatique était née.
SYSTEMIQUE et COMPLEXITE
Comprendre l'économie par l'analyse systèmique: La théorie des systèmes appliquée à l'économie La synthèse la plus brillante est celle de Chris Freeman et de Francisco Louçà "As Time Goes By". Je renvoie le lecteur à mon cours de management public. Mais le père de la systémique comme explication du moteur du développement des sociétés est sans aucun doute Adam Smith, (Darwin l'avait lu, ainsi que Malthus, pour formuler sa théorie de l'évolution) comme le montre brillament la thèse de Michaël Biziou , "Adam Smith et l'origine du libéralisme" . D'après Schumpeter (Histoire de l'analyse économique), Smith n'a pas inventé ni découvert grand'chose, sa contribution a surtout été d'être un professeur qui a formé des professeurs et unifié un corps de doctrine préexistant. Comment les technologies évoluent-elles ? Pourquoi certaines nations savent-elles mieux tirer profit des opportunités qu'offre la technologie? Richesse et pauvreté des nations. Une nouvelle
Related:
Related: