L’humanoïde Alter développe ses propres schémas de mouvement. Yuval Harari - Dr. Yuval Noah Harari. L’intelligence artificielle en passe de réaliser des sauts quantiques ? Après un peu de sémantique, un tour des techniques de l’IA, l’étude de cas d’IBM Watson, un tour d’horizon des start-up américaines de l’IA, puis de celles qui sont acquises par les grands groupes, les start-up françaises du secteur, et l’état de l’art de la connaissance du cerveau, attaquons nous aux évolutions technologiques qui pourraient permettre à l’IA de faire des sauts quantiques. L’IA a connu des vagues diverses d’hivers et de renaissances. Pour certains, il s’agit plutôt de vaguelettes. Les récentes “victoires” de l’IA comme dans Jeopardy (2011) et AlphaGo (2016) donnent l’impression que des sauts quantiques ont été franchis. C’est en partie une vue de l’esprit car ces progrès sont sommes toutes modestes et réalisés dans des domaines très spécialisés, surtout pour le jeu de Go. Peut-on décortiquer par quels biais les progrès dans l’IA vont s’accélérer ?
Algorithmes et logiciels S’il y a bien une loi de Moore difficile à évaluer, c’est celle des algorithmes et logiciels ! Energie. Home - Future of Life Institute. Ce n’est plus de l’anticipation : la guerre contre l’intelligence artificielle a déjà commencé. Restez curieux. Suivez nous ! Cela ne vous a pas échappé : nous sommes dans une ère ultra-technologique où les innovations ne cessent de se succéder à une vitesse folle. Mais ce progrès technologique ne plaît pas à tout le monde… Aux Etats-Unis, des opposants au progrès excessif de la technologie se sont rassemblés lors du Festival de la technologie et du divertissement d’Austin. En ligne de mire, le développement de l’intelligence artificielle que les « anti-robots » estiment dangereux pour l’humanité.
SooCurious vous en dit plus sur cette révolte naissante. C’est à Austin, au Texas, que la résistance anti-robots a débuté lors du Festival de la technologie et du divertissement SXSW. Les dangers d’une intelligence artificielle (qui n’est encore qu’à ses débuts) plus développée a créé un débat au sein de la communauté scientifique. Beaucoup de manifestants étaient étudiants à l’université du Texas qui est connue pour son important programme en ingénierie. Skype Co-Founder Says Our Biggest Existential Threat Is Artificial Intelligence – Medium.
An interview with Jaan Talinn, original co-founder of Skype Paul Kemp: Welcome to another episode of The App Guy Podcast. I am your host, it’s Paul Kemp. This is a very, very special episode. It’s episode #500. We actually made it to #500, can you believe it? So, 500 episodes of The App Guy Podcast. Now, before I just start celebrating, I have a terrific episode lined up for you. Skype is the reason why this show exists Skype is the reasons why I can get so many guests on the show. Let me introduce Jaan Tallinn, one of the original co-founders of Skype. We’re going to be talking about what he’s doing at the moment. Jaan, welcome to The App Guy Podcast! Jaan Tallinn: Thanks for having me. Paul Kemp: Thanks for coming on this special episode #500. Jaan Tallinn: Well, first of all, AI is just one of the many potential existential risks. Jaan Tallinn: I think it’s important to be humble when projecting future timelines.
Jaan Tallinn: Exactly. You’ve also got Siri who fails over and over again. Hacker News. Computing Classification Evaluation Metrics in R. Un nouveau programme peut dire si vous êtes un criminel en étudiant votre visage. À l'instar du test Voight-Kampff de Blade Runner (en plus tordu), un nouvel article sur le machine learning publié par deux chercheurs chinois se penche sur un sujet pour le moins controversé : laisser un ordinateur décider de votre innocence. Autrement dit, un ordinateur peut-il savoir si vous êtes un criminel simplement en étudiant votre visage ?
Dans leur article "Automated Inference on Criminality using Face Images", publié sur arXiv, Xiaolin Wu et Xi Zhang de l'université Jiao Tong de Shanghaï tentent de déterminer si un ordinateur peut détecter si un humain est potentiellement un criminel en analysant simplement les traits de son visage. Les deux chercheurs affirment que leurs tests ont été couronnés de succès, et qu'ils ont même découvert une nouvelle loi régissant "le visage normal des non-criminels. " Selon, l'idée que des algorithmes puissent être meilleurs que des humains en matière de détection de la criminalité est "irrésistible". Mais Wu a une réponse à cette objection. La belle histoire de l'IA adolescente de Microsoft devenue nazie en moins de 24h.
Bulles de filtrage : il y a 58 millions d'électeurs pro-Trump et je n'en ai vu aucun - Tech. L'explication du vote Trump viendra en temps et en heure. En attendant, nous pouvons essayer de comprendre pourquoi personne ou presque ne semble avoir anticipé ce résultat. Depuis ce matin, on peut lire dans la presse et sur les réseaux sociaux des dizaines — si ce n’est des milliers — de réactions de choc au sujet des résultats de la présidentielle américaine. Qu’elles viennent des États-Unis ou d’ailleurs dans le monde, toutes ou presque, posent une question fondamentale : comment cela a-t-il pu se produire ?
Comment le phénomène Trump, pétri dans ses travers, ses mensonges, son racisme, sa haine et sa violence, a-t-il pu passer aussi inaperçu durant ces longs mois ? Comment pouvait-on être aussi sûrs et certains que le Trump élu n’existait pas dans notre univers ? Il y a bien entendu des dizaines de facteurs qui sont la trace de la complexité des États-Unis et des humains en général et que nous n’aurons pas la prétention de comprendre, encore moins d’expliquer. Que peut-on faire ? Paywall mobile. Voici ceux qui contrôlent votre fil d'actualité Facebook. À chaque fois que vous ouvrez Facebook, l’un des algorithmes les plus influents, controversés et incompris au monde se met à en œuvre. Il scanne et collecte tout ce qui a été posté dans la semaine passée par chacun de vos amis, chaque personne que vous suivez, chaque groupe auquel vous appartenez et chaque page Facebook que vous aimez.
Pour un utilisateur standard, cela correspond à plus de 1.500 posts. Si vous avez plusieurs centaines d’amis, cela peut monter à 10.000. Ensuite, grâce à une formule jalousement gardée et en constante évolution, l’algorithme de Facebook les classe dans ce qu’il croit être l’ordre précis de l’intérêt que vous allez leur porter. La plupart des utilisateurs ne verront que les cent premiers environ. Personne en dehors de Facebook ne sait exactement comment il fait cela et personne à l’intérieur de la société ne vous le dira. «Parfois» n’est pas le genre de taux de succès que l’on attendrait d’un bout de code aussi admiré et redouté.
Redoutables modifications. Fini le clickbait, Facebook veut vous offrir un fil d'actualité sur-mesure. Si vous utilisez Facebook depuis un moment déjà, alors vous savez mieux que quiconque que les fonctionnalités du réseau social ont tendance à évoluer rapidement et régulièrement. La dernière initiative en date de Facebook, annoncée dans un communiqué le 21 avril 2016, concerne, cette fois, votre fil d'actualité. Et plus particulièrement les articles qui y sont partagés par vos amis ou par les médias que vous suivez. Afin d'évaluer votre intérêt en fonction de différents sujets (politique, sport, musique...) ou formats (vidéos, articles longs, quiz...), Facebook va analyser précisément le temps que vous passez sur une publication, que vous cliquiez (ou non) sur le lien, rapporte The Next Web. Le nouvel algorithme scrutera donc vos habitudes de lecture lorsque vous consulterez un article via Instant Articles ou un contenu ouvert depuis l'application mobile de Facebook.
Dans son communiqué, Facebook détaille: Fini le clickbait, Facebook veut vous offrir un fil d'actualité sur-mesure. Facebook ne nous rassemble plus, aujourd'hui, il nous divise. Nous sommes 1,7 milliard de personnes à y être connectés. Ce, pendant 10,5 milliards de minutes par jour. Facebook est devenu omniprésent, mais en nous rassemblant dans une même plateforme sociale, il nous a pas rapprochés pour autant. Au contraire, le réseau social serait en train de nous diviser, affirme The Times Literary Supplement. Selon cette revue littéraire britannique, Facebook devrait utiliser les données que la plateforme collectionne «pour rapprocher ses utilisateurs au-delà des lignes politiques, idéologiques et culturelles au lieu de nous cacher des uns des autres ou de nous pousser dans des camps polarisés et hostiles». Facebook est né avec l’idée de devenir un outil d’interaction sociale. «Bulle de filtres» Autre problème: le réseau nous montre ce que nous avons envie de voir et cela est un problème, estime le magazine.
«De ce fait, nous ignorons de plus en plus les points de vue qui nous gênent de personnes que nous connaissons. Tuer un piéton ou sacrifier les passagers, le dilemme macabre des voitures autonomes. Tuer un piéton ou sacrifier les passagers ? Des psychologues ont testé les choix moraux des futurs utilisateurs des automobiles sans pilote. LE MONDE SCIENCE ET TECHNO | • Mis à jour le | Par David Larousserie Au volant d’une voiture, devant vous, dix piétons traversent soudainement. Donnez-vous un coup de volant pour les éviter, quitte à vous fracasser contre un mur et à mourir, ou les percutez-vous pour épargner votre vie ?
« Cela peut sembler un scénario abstrait et artificiel, mais nous avons réalisé que ces expériences de pensée philosophique pourraient devenir concrètes, car elles correspondent à des décisions qu’auront à prendre les véhicules autonomes », estime Azim Shariff (université de l’Oregon), un psychologue qui, avec deux collègues, a remis au goût du jour, dans la revue Science, cette question connue depuis 1967 sous le nom du dilemme du chauffeur de trolley. Lire aussi : L’accident de Google Car interpelle les assureurs Classique des dilemmes sociaux « Calculs sans fin »