background preloader

Déconstruction

Déconstruction
Un article de Wikipédia, l'encyclopédie libre. Pour l'approche architecturale, voir Déconstructivisme La déconstruction est une méthode, voire une école, de la philosophie contemporaine. Cette pratique d'analyse textuelle s'exerce sur de nombreux types d'écrits (philosophie, littérature, journaux), pour révéler les décalages et confusions de sens qu'ils font apparaître par une lecture centrée sur les postulats sous-entendus et les omissions dévoilés par le texte lui-même. Ce concept, participant à la fois de la philosophie et de la littérature, a eu un grand écho aux États-Unis, où il est assimilé à la philosophie postmoderne, et plus globalement à l'approche divergente de la philosophie continentale d'Europe. Historique de la notion de déconstruction[modifier | modifier le code] La déconstruction chez Heidegger[modifier | modifier le code] La déconstruction chez Derrida[modifier | modifier le code] Penseurs influencés par la déconstruction[modifier | modifier le code] Related:  Philo analytique, philo du langage

Tournant linguistique Un article de Wikipédia, l'encyclopédie libre. Le tournant linguistique, plus souvent désigné par l'expression anglaise linguistic turn, est originellement une expression par laquelle Gustav Bergmann[1] désignait en 1953 une manière de faire de la philosophie initiée par Ludwig Wittgenstein dans son Tractatus logico-philosophicus. D'une manière générale, il s'agit d'un changement méthodologique et substantiel, affirmant que le travail conceptuel de la philosophie ne peut avoir lieu sans une analyse préalable du langage. Le tournant linguistique a notamment connu des applications en histoire. Généralités[modifier | modifier le code] L'idée de fond est de traquer les énoncés mal formés et sans signification réelle, tout en vérifiant la structure logique réelle qui sous-tend les formulations d'idées dans le langage naturel. En histoire[modifier | modifier le code] Démarche en histoire[modifier | modifier le code] Influences en histoire[modifier | modifier le code]

Mémétique Un article de Wikipédia, l'encyclopédie libre. La mémétique utilise le concept de mème, pour étudier les évolutions de la culture avec une approche Darwinienne étendue. Si la génétique se base sur le concept de gène, pour étudier la nature, la mémétique se base sur le concept de mème, pour étudier la culture. On y étudie le comportement des codes et schémas informationnels appelés mèmes, dans leurs milieux physico-chimiques et socio-culturels : l’homme, l’animal, la machine (tout support mémoriel). Le mème peut se définir comme un élément d'une culture pouvant être considéré comme transmis par des moyens non génétiques, en particulier par l'imitation[1]. Elle associe les sciences de autour de l'étude de l'évolution des phénomènes culturels dans le temps et l'espace physico-social, dans une approche culturo-centrée. Origine[modifier | modifier le code] Le mot mémétique a été formé dans les années 1980 à partir du terme mème. L'approche d'Aaron Lynch est un exemple[2]. Certains[Qui ?]

Organisation scientifique du travail Un article de Wikipédia, l'encyclopédie libre. Pour les articles homonymes, voir OST. L'organisation scientifique du travail (O.S.T), qui sera introduite et largement utilisée lors de la deuxième révolution industrielle à la fin du XIXe siècle, est une méthode de gestion et d'organisation des ateliers de production, dont les principes ont été développés et mis en application industrielle par Frederick Winslow Taylor (1856 - 1915) et d'autres personnalités moins connues (William Leffingwell, Henri Fayol, etc.). L'OST conduit à une division extrême du travail, la parcellisation des tâches, en forçant les ouvriers et les employés à ne devenir que de simples exécutants dans d'immenses entreprises mécanisées. Avec le recul, un terme plus adapté serait « organisation productiviste du travail », puisque ce but est d'améliorer la productivité, en s'appuyant sur les méthodes dites « scientifiques ». Historique de « l'organisation scientifique du travail »[modifier | modifier le code]

Philosophie analytique Gottlob Frege, dont les travaux inspireront la philosophie analytique. L'expression « philosophie analytique » désigne un mouvement philosophique qui se fonda dans un premier temps sur la nouvelle logique contemporaine, issue des travaux de Gottlob Frege et Bertrand Russell à la fin du XIXe siècle et au début du XXe siècle, pour éclairer les grandes questions philosophiques. Sa démarche s'appuie sur une analyse logique du langage cherchant à mettre en évidence les erreurs de raisonnement que celui-ci peut induire et faisant ainsi de la « clarification logique de la pensée » le but de la philosophie selon le mot de Carnap. La philosophie de type analytique est pratiquée majoritairement dans le monde anglophone et quelques autres pays ; elle est assez peu présente en France et en Europe en général. Jules Vuillemin est un des premiers philosophes français à s'intéresser à la philosophie analytique et à en adopter des aspects stylistiques et méthodiques, notamment la formalisation logique.

Retour au mythe pa en RELIGIOLOGIQUES, 15 (printemps 1997) Orphée et Eurydice: mythes en mutation RETOUR AU MYTHE PAÏEN DANS L'OEUVRE D'ANNA de NOAILLES Les récits mythiques ayant perdu en grande partie leur capacité d’ordonner, de justifier et même de forger l’expérience humaine du monde, il semble que la poésie moderne soit devenue le lieu privilégié pour l’actualisation ou la réactivation de l’imagination mythique. D’après Saint-John Perse, «[q]uand les mythologies s’effondrent, c’est dans la poésie que trouve refuge le divin(1)». Par l’entremise essentielle de la nature, d’abord, il s’agit bien d’un retour au paganisme chez ce poète d’ascendance mixte, à la fois grecque, ou «classique», par sa mère, et roumaine, ou «barbare», par son père.(4) «L’Offrande à la nature», le poème le plus célèbre de son premier recueil, Le Coeur innombrable (1901), met en scène une nature personnifiée dès le premier vers: «Nature au coeur profond sur qui les cieux reposent [...]»

Économie de fonctionnalité Un article de Wikipédia, l'encyclopédie libre. L’économie de fonctionnalité est une forme d’économie collaborative qui vise à substituer à la vente d’un bien la vente d’un service ou d’une solution intégrée remplissant les mêmes fonctions que le bien, voire des fonctions élargies, tout en consommant moins de ressources et d’énergie et en créant des externalités environnementales et sociales positives. Sous certaines conditions, il s'agit donc d'une modalité d'échange revisitée permettant d'intégrer de manière bien plus satisfaisante les enjeux du développement durable à l'activité économique (production et consommation) C’est la recherche normative de gains environnementaux et/ou sociaux qui distingue l’économie de la fonctionnalité de la servicisation (économie des services) classique[1]. Les trajectoires d'évolution vers l'économie de la fonctionnalité[modifier | modifier le code] Elles semblent répondre à deux tendances ; le « modèle serviciel », et la « solution intégrée » ;

Holisme Holisme (du grec ancien ὅλος / hólos signifiant « entier ») est un néologisme forgé en 1926 par l'homme d'État sud-africain Jan Christiaan Smuts pour son ouvrage Holism and Evolution[1]. Selon son auteur, le holisme est « la tendance dans la nature à constituer des ensembles qui sont supérieurs à la somme de leurs parties, au travers de l'évolution créatrice[1] ». Le holisme se définit donc globalement par la pensée qui tend à expliquer un phénomène comme étant un ensemble indivisible, la simple somme de ses parties ne suffisant pas à le définir. De ce fait, la pensée holiste contraste avec une perspective purement réductionniste, en considérant l’émergence comme un mécanisme explicatif indispensable pour rendre compte de phénomènes considérés inexplicables par la simple analyse de ses parties appréhendables. Holisme est un terme nouveau introduit dans les années 1920. Le holisme de J. « Smuts a espéré que le holisme pourrait reconstituer l'unité entre Weltanschauung[6] et science »[7].

Lucifer Un article de Wikipédia, l'encyclopédie libre. Non mentionné dans le texte biblique, le nom Lucifer est utilisé dans la Vulgate pour traduire le « porteur de lumière » du Livre d'Isaïe. Associé à l'orgueil, Lucifer est assimilé par la tradition chrétienne à Satan, présenté dans le Livre d'Hénoch comme un puissant archange déchu à l'origine des temps pour avoir défié Dieu et ayant entraîné les autres anges rebelles dans sa chute. Dans la mythologie romaine[modifier | modifier le code] Pour le jésuite Tournemine au XVIIIe siècle, Lucifer est celui qui apporte la clarté, les « lumières », la connaissance et la révolte. La Lune et Vénus au-dessus de l'observatoire du Paranal au Chili Lucifer apparaît notamment à la fin du deuxième chant de l'Énéide de Virgile comme porteur de l'aurore au lendemain de la chute de Troie : « Iamque iugis summae surgebat Lucifer Idaeducebatque diem, Danaique obsessa tenebant limina portarum, nec spes opis ulla dabatur. » Jésus et Lucifer[modifier | modifier le code]

Épigénétique Un article de Wikipédia, l'encyclopédie libre. L'épigénétique est l'ensemble des mécanismes moléculaires concernant le génome ainsi que l'expression des gènes, qui peuvent être influencés par l'environnement et l'histoire individuelle. Ces mécanismes peuvent être potentiellement transmissibles d'une génération à l'autre, sans altération des séquences nucléotidiques (ADN), et avec un caractère réversible. L'existence de phénomènes agissant sur l'expression des gènes se résume dans l'interrogation de Thomas Morgan « Si les caractères de l'individu sont déterminés par les gènes, pourquoi toutes les cellules d'un organisme ne sont-elles pas identiques ? ». Les différences qui existent entre chaque cellule d'un même organisme ayant le même patrimoine génétique - mis à part quelques rares mutations somatiques - montrent une expression différentielle des gènes. Des phénomènes épigénétiques ont été mis en évidence chez des eucaryotes et des procaryotes. Épigénome[modifier | modifier le code]

Théorie de la pertinence Un article de Wikipédia, l'encyclopédie libre. La théorie de la pertinence a été introduite par l'une des maximes gricéennes, selon laquelle il y aurait à l'œuvre un principe d'économie dans le langage, visant à ne dire que ce qui est pertinent. Le philosophe Paul Grice est connu pour sa distinction entre deux formes de communication : le sens naturel et le sens non-naturel. Un signe signifie de lui même lorsque sa seule production a du sens (comme le rougissement définit la honte), et de façon non-naturelle lorsque le sens de celui-ci est le résultat d'une convention. En France, à peu près à la même époque, Oswald Ducrot (Dire et ne pas dire, 1972) développait des idées comparables. Dan Sperber, philosophe et anthropologue français, et Deirdre Wilson, linguiste britannique, ont développé à partir de ces idées une théorie pragmatique générale, connue sous le nom de théorie de la pertinence. Références[modifier | modifier le code] Sperber, D. and Wilson, D. Sperber, D. & Wilson D. (2004).

Physique quantique Physique quantique 1. Introduction 1.1. La nature, corpusculaire ou ondulatoire, de la lumière est discutée depuis longtemps. A partir du début du 20ème siècle, des faits expérimentaux, tels que : l’effet Compton (collision élastique lumière-matière), le rayonnement du corps noir (variation avec la longueur d’onde du flux lumineux émis par les corps), l’effet photoélectrique (extraction des électrons d’un métal par une onde électromagnétique), les spectres de raies (émission de lumière par les atomes gazeux et, en particulier, par l’atome d’Hydrogène), l’expérience de Franck et Hertz (pertes d’énergie subies par des électrons accélérés à la suite de collisions avec les atomes d’un gaz), mettent en évidence le caractère corpusculaire de la lumière. 1.2. 1.2.1. L’effet Compton, la théorie du rayonnement du corps noir, l’effet photoélectrique associent à l’onde électromagnétique une corpuscule appelée photon. 1.2.2. Balle de fusil : ð Proton dans un cyclosynchroton de rayon pour avec . 1.2.3. . .

Related: