Les 37 projets d’Elon Musk contre les dangers de l’intelligence artificielle
Le patron de Telsa et de SpaceX a donné près de 7 millions de dollars à des organismes de recherche pour prévenir les risques de l’intelligence artificielle. Avec Bill Gates et Stephen Hawking, le milliardaire américain Elon Musk fait partie des grandes figures qui ont exprimé, ces derniers mois, leur inquiétude vis-à-vis des progrès de l’intelligence artificielle (IA). En guise de passage à l’acte, le célèbre PDG du constructeur de voitures électriques Telsa et de SpaceX a attribué la semaine dernière des millions de dollars dans 37 projets de recherche destinés à prévenir les risques liés à l’IA. Lire : Des scientifiques américains s’inquiètent de l’évolution de l’intelligence artificielle Berkeley, Stanford, Oxford Sept mois plus tard, 37 équipes de recherche ont été sélectionnées, parmi près de 300 candidates, pour recevoir une partie de cette somme. Lire aussi Elon Musk, le capitaine d’industrie qui veut mourir sur Mars « Scénario Terminator »
Des scientifiques américains s'inquiètent de l'évolution de l'intelligence artificielle
Plus de 700 scientifiques et chefs d'entreprises, comme Elon Musk, le milliardaire fondateur de SpaceX, ont lancé un appel ce week-end pour s'assurer que les futures avancées dans le domaine de l'intelligence artificielle bénéficient en priorité à la société. Leur lettre ouverte a été publiée dimanche par le Future of Life Institute (FLI), un organisme américain à but non lucratif qui compte parmi ses membres le physicien britannique Stephen Hawking, Elon Musk, George Church, professeur de génétique à l'université de Harvard, ou encore l'acteur américain Morgan Freeman. Stephen Hawking, qui s'exprime grâce à un ordinateur en raison d'une paralysie, avait averti début décembre contre le risque présenté par le développement de l'intelligence artificielle. Dans un entretien avec la BBC, le physicien avait déclaré que ce type de technologie pouvait évoluer rapidement et dépasser l'humanité, un scénario comparable à celui de la saga Terminator.
Intelligence artificielle : quel impact en 2030
L’intelligence artificielle ne menace pas le genre humain. C’est une des conclusions du rapport de 27 pages titré “Intelligence artificielle et vie en 2030”. Première d’une longue série, cette étude est l’aboutissement d’un an de recherche du AI100, un projet hébergé par Stanford qui vise à étudier les implications de l’intelligence artificielle. Les transports, la santé, la sécurité ou encore l’éducation sont tout autant de secteurs concernés par les avancées en matière d’intelligence artificielle. Quel changements peut-on anticiper pour 2030 ? Les impacts seront positifs disent-ils, mais transformeront profondément le marché de l’emploi et la société. Parallèlement, l’intelligence artificielle pose également de nombreuses questions d’ordre éthique et social en particulier, de respect de la vie privée notamment. Le milieu médical sera également impacté.
Mythes et enjeux de l'intelligence artificielle : rencontre avec Jean-Gabriel Ganascia.
Dans le cadre de son intervention au TEDx organisé par l’école de commerce de l’Istec sur la thématique du jeux (Play the Game), j’ai a eu l’occasion d’interviewer Jean-Gabriel Ganascia, professeur d’informatique à l’université Pierre et Marie Curie, sur l’intelligence artificielle. Spécialiste de l’IA, ses recherches portent actuellement sur le versant littéraire des humanités numériques, sur la philosophie computationelle et sur l’éthique des technologie de l’information et de la communication. Il a été question des enjeux sociétaux que créait cette technologie, mais surtout dans la veine de son dernier ouvrage (Le mythe de la Singularité) du problème de la démystification de l’IA et de toutes les peurs qu’elle engendrait. Le mythe de Terminator ou Frankenstein, celui de la créature qui finirait par prendre le dessus sur son créateur est-il possible aujourd’hui avec l’intelligence artificielle ? Exactement. C’est un peu tout ça qu’il s’est passé aux USA.
Related:
Related: