background preloader

Le connectivisme, l’intelligence et la conscience globale et singulière

Le connectivisme, l’intelligence et la conscience globale et singulière

Connectivism Editor’s Note: This is a milestone article that deserves careful study. Connectivism should not be con fused with constructivism. George Siemens advances a theory of learning that is consistent with the needs of the twenty first century. His theory takes into account trends in learning, the use of technology and networks, and the diminishing half-life of knowledge. It combines relevant elements of many learning theories, social structures, and technology to create a powerful theoretical construct for learning in the digital age. George Siemens Introduction Behaviorism, cognitivism, and constructivism are the three broad learning theories most often utilized in the creation of instructional environments. Learners as little as forty years ago would complete the required schooling and enter a career that would often last a lifetime. “One of the most persuasive factors is the shrinking half-life of knowledge. Some significant trends in learning: Background An Alternative Theory Connectivism

Modèle du SECI (Nonaka Takeuchi) Qu'est-ce que le modèle du SECI ? Description Ikujiro Nonaka et Hirotaka Takeuchi proposent un modèle des connaissances créant un processus pour comprendre la nature dynamique de la création de connaissances, et pour gérer un tel processus efficacement : Le Modèle du SECI. Il se composent de 3 éléments : SECI Ba Capital de connaissance Ces 3 éléments interagissent les uns avec les autres organiquement et dynamiquement. Socialisation Externalisation Combinaison Internalisation Les trois éléments devraient être intégrés sous le leadership clair de sorte que l'organisation puisse créer des connaissances en permanence et dynamiquement : elle doit devenir une discipline pour les membres de l'organisation. La création des connaissances est un processus continu des interactions dynamiques entre les connaissances tacites et explicites. Socialisation. Ba Le diagramme illustre les divers types de Ba, chacun offre un contexte pour une phase spécifique dans le processus de création de la connaissance.

Connectivism et enaction...mon cheminement Quand j'ai commencé à travailler sur le concept d'énaction de Francisco Varela, il y a eu un moment de profonds questionnements pour moi...j'ai eu le sentiment que les repères sur lesquels je m'appuyais tombaient les uns après les autres...un peu comme si je vacillais mentalement...presque physiquement d'ailleurs...impossible de dormir pendant près de deux semaines ! Ce qui émergeait pour moi à ce moment là, c'était l'idée qu'aucun modèle pré-existant n'est indispensable à la construction de mes propres représentations....c'était l'idée que l'on peut apprendre de façon autonome dans un couplage permanent au monde...coup de tonnerre dans mon ciel ! Cette idée s'imposait comme une évidence et tous mes repérages se déplaçaient et prenaient sens autour de cette approche...je ne maîtrisais rien et cela se faisait...il faut dire aussi que ce concept résonnait largement avec ma pratique et trouvait là sa cohérence ! Je me suis remise à dormir ! A lire en parallèle :

Comment notre cerveau apprend-il ? - Sciences Imagerie neuro fonctionnelle du langage Nathalie Tzourio-Mazoyer©GIP Cycéron La capacité d’apprentissage joue un rôle essentiel dans note vie. Pourtant, ses mécanismes échappent largement à notre conscience. Nous apprenons dès notre naissance sans nous en rendre compte et nous avons ensuite plus de difficultés à apprendre volontairement, à l’école par exemple. Enfin, lorsque l’âge avance, l’une des fonctions centrales de cette faculté, la mémoire, subit des dégradations problématiques comme celles qui sont provoquées par la maladie d’Alzheimer. La révolution actuelle résulte des progrès spectaculaires de l’imagerie cérébrale. Comment se développe le cerveau du bébé et comment se mettent en place les systèmes neuronaux permettant l’acquisition et la mémorisation de nouvelles connaissances? Comment et jusqu’où ces capacités progressent-elles au cours de la vie ? Que se passe-t-il dans notre mémoire pendant que nous dormons ?

PyBrain An Introduction to Neural Networks Prof. Leslie Smith Centre for Cognitive and Computational Neuroscience Department of Computing and Mathematics University of Stirling. lss@cs.stir.ac.uk last major update: 25 October 1996: minor update 22 April 1998 and 12 Sept 2001: links updated (they were out of date) 12 Sept 2001; fix to math font (thanks Sietse Brouwer) 2 April 2003 This document is a roughly HTML-ised version of a talk given at the NSYN meeting in Edinburgh, Scotland, on 28 February 1996, then updated a few times in response to comments received. Please email me comments, but remember that this was originally just the slides from an introductory talk! Why would anyone want a `new' sort of computer? What is a neural network? Some algorithms and architectures. Where have they been applied? What new applications are likely? Some useful sources of information. Some comments added Sept 2001 NEW: questions and answers arising from this tutorial Why would anyone want a `new' sort of computer? Good at Not so good at Fast arithmetic

A Non-Mathematical Introduction to Using Neural Networks The goal of this article is to help you understand what a neural network is, and how it is used. Most people, even non-programmers, have heard of neural networks. There are many science fiction overtones associated with them. And like many things, sci-fi writers have created a vast, but somewhat inaccurate, public idea of what a neural network is. Most laypeople think of neural networks as a sort of artificial brain. Neural networks would be used to power robots or carry on intelligent conversations with human beings. Neural networks are one small part of AI. The human brain really should be called a biological neural network (BNN). There are some basic similarities between biological neural networks and artificial neural networks. Like I said, neural networks are designed to accomplish one small task. The task that neural networks accomplish very well is pattern recognition. Figure 1: A Typical Neural Network Neural Network Structure Programming hash tables use keys and values.

Related: