Le « deep learning », une révolution dans l'intelligence artificielle. Cette technologie d'apprentissage, basée sur des réseaux de neurones artificiels, a complètement bouleversé le domaine de l'intelligence artificielle en moins de cinq ans.
"La peur irrationnelle autour de l'IA masque les vrais dangers" Parmi les innombrables domaines de recherche de Google, l’intelligence artificielle, Google Brain, est un de ceux qui “font peur”.
Le principe même du deep learning, où la machine apprend “en autonomie”, donne le sentiment que l’Homme peut être mis sur la touche. Que dire alors si une intelligence artificielle développe elle-même une méthode de chiffrement, incompréhensible pour un humain, pour entrer en communication avec une autre ? Revenons à l’expérience, tout d’abord : Martín Abadi et David Andersen, deux chercheurs du Google Brain Project, ont ainsi connecté trois ordinateurs, appelés neural networks en raison de leur composition inspirée du système neuronal humain, baptisés Eve, Alice et Bob. Chacun ayant un rôle défini : Alice et Bob avaient pour but de se communiquer un message, et Eve devait intercepter ce dernier.
6.2.12.2. Fuzzy logic. Classification naïve bayésienne. Moteur d'inférence. Un article de Wikipédia, l'encyclopédie libre.
Preparing for the future of ai. The AI VC. Yann LeCun. Un article de Wikipédia, l'encyclopédie libre.
Yann LeCun's Home Page. Marvin Minsky, pionnier de l’intelligence artificielle, est mort. Le Monde.fr | • Mis à jour le | Par Hervé Morin Le test de Turing, qui consiste à voir si une machine peut se faire passer de façon crédible pour un humain ?
« Une blague ! » Dans un entretien vidéo mis en ligne en 2013, Marvin Minsky, lui-même prix Turing (1969), qualifiait de plaisanterie ce qui passe souvent pour l’épreuve définitive qui permettrait de qualifier d’intelligent un artefact créé par l’homme. Telle n’était pas l’intention d’Alan Turing, poursuivait le chercheur américain, dans ce blog consacré à la « singularité », ce point où les machines prendront définitivement l’ascendant sur Homo sapiens.
Bill Gates est « préoccupé par la superintelligence » artificielle. Après l'entrepreneur Elon Munsk et le physicien Stephen Hawkins, le fondateur de Microsoft a fait part à son tour d'inquiétudes quant au développement d'intelligences artificielles.
Singularité technologique. Au-delà de ce point, le progrès ne serait plus l’œuvre que d’intelligences artificielles, ou « supraintelligence » qui s’auto-amélioreraient, de nouvelles générations de plus en plus intelligentes apparaissant de plus en plus rapidement, créant une « explosion d'intelligence » créant finalement une puissante superintelligence qui dépasserait qualitativement de loin l'intelligence humaine[1],[2],[3].
Le risque serait que l'humanité perde le contrôle de son destin[4]. L'auteur de science fiction Vernor Vinge est même convaincu, dans son essai La venue de la singularité technologique, que la singularité signifierait la fin de l'ère humaine[3], la nouvelle superintelligence continuant de s'améliorer et d'évoluer technologiquement à une vitesse incompréhensible pour les humains[5]. Cette notion de singularité technologique aurait été envisagée par John von Neumann dès les années 1950[6] et ses conséquences ont été débattues dans les années 1960 par I.
La Maison Blanche prépare un futur où l’intelligence artificielle jouera un rôle majeur (1/2) - Mission pour la Science et la Technologie de l'Ambassade de France aux Etats-Unis. Les progrès de l’intelligence artificielle (IA) sous ses diverses formes ont d’ores et déjà commencé à impacter de nombreux secteurs comme la santé, l’énergie, le traitement de l’image ou l’éducation.
Les bénéfices attendus dans le futur sont encore plus importants, permettant l’émergence de nouveaux marchés et de nouvelles opportunités à l’impact social difficilement quantifiable. Néanmoins, comme toute percée technologique d’ampleur, le développement de l’IA présente un certain nombre de risques et interroge fondamentalement les politiques publiques. Au cours de l’année écoulée, plusieurs personnalités du monde scientifique et industriel (Stephen Hawking, Elon Musk ou Bill Gates) ont exprimé leurs craintes quant à la potentielle perte de contrôle de l’IA dans le futur, et demandé la mise en place rapide de garde-fous technologiques et de réflexions réglementaires. Entre optimisme et prudence Un impact social et économique important Sécurité et collaboration mondiale.
Herbert Simon. Herbert Simon vers 2000.
Herbert Alexander Simon (né le 15 juin 1916 à Milwaukee, Wisconsin, mort le 9 février 2001 à Pittsburgh, Pennsylvanie) est un économiste et sociologue américain ayant reçu le prix dit Nobel d'économie en 1978. Il s'est d'abord intéressé à la psychologie cognitive et la rationalité limitée (Bounded Rationality) qui constitue le cœur de sa pensée. Au niveau économique, ses travaux ont interrogé l'efficacité du fordisme et remis en cause les théories néo-classiques. Ses études sur la rationalité limitée l'ont conduit à s'intéresser aux organisations et aux procédures de décisions ainsi qu'à l'intelligence artificielle (à base d'informatique) dont il est un des pionniers aux États-Unis. Il a reçu avec Allen Newell, en 1975, le prix Turing, principale distinction en informatique. Biographie[modifier | modifier le code] À partir de 1949, il intègre la Graduate School of Industrial Administration au Carnegie Institute of Technology de Pittsburgh.