Samsung Techwin America - Unmanned Autonomous Vehicle (April 1st, 2012) Getting Started. Blue Brain. Un article de Wikipédia, l'encyclopédie libre.
Centre pour l'étude des risques existentiels. Un article de Wikipédia, l'encyclopédie libre.
Le centre pour l'étude des risques existentiels[1] (CSER pour Centre for the Study of Existential Risk en anglais) est un centre de recherche de l'université de Cambridge qui étudie les risques de menaces de la technologie actuelle dans le futur. Le centre a été fondé par les chercheurs Huw Price, Martin Rees et Jaan Tallinn[2].
L'une des études du centre, le risque que des robots se révoltent contre l'espèce humaine dans une approche semblable à la Terminator, a eu une certaine visibilité médiatique. Selon Price, « Il semble raisonnable de croire qu’à un moment donné, dans ce siècle ou le prochain, l’intelligence échappera aux contraintes de la biologie »[trad 1],[1],[3]. Notes et références[modifier | modifier le code] Notes[modifier | modifier le code] (en) Cet article est partiellement ou en totalité issu de l’article de Wikipédia en anglais intitulé « Centre for the Study of Existential Risk » (voir la liste des auteurs). Un week-end de doute au sujet de l'intelligence artificielle.
Il faut que je vous avoue être en plein doute, un doute que j’avais commencé à évoquer la semaine dernière à propos du programme de Google censé détecter la haine dans les commentaires, et qui échoue à le faire, de manière assez spectaculaire.
J’y voyais une limite de l’intelligence artificielle. Samedi matin, je soumets cet exemple à un anthropologue spécialisé en anthropologie des machines qui tenait un discours extrêmement alarmiste sur le mode : ça y est les machines sont plus fortes que nous, elles font déjà des meilleurs diagnostics que les médecins, vont bientôt conduire des voitures, elles nous battent au poker etc. Quand je lui soumets cet exemple des commentaires haineux, l’anthropologue répond en substance : oui, mais ces algorithmes sont auto-apprenant, ils vont se perfectionner, et puis on ne les maîtrise plus ; et si - parce qu’en plus ces machines sont connectées entre elles - leur venait l’idée de nous asservir, de faire nous leurs esclaves….
Pourquoi Google a conçu un « bouton rouge » pour désactiver des intelligences artificielles. Des chercheurs de Google DeepMind Oxford ont prévu une manière de désactiver un programme d’IA, sans que celui-ci ne réussisse à la contourner.
LE MONDE | • Mis à jour le | Par Morgane Tual Une intelligence artificielle (IA) est-elle capable d’empêcher un humain de la désactiver ? C’est de ce postulat que sont partis deux chercheurs pour réfléchir à une façon d’éviter que cela n’arrive. La voiture autonome sonne-t-elle le glas de l’assurance ? La voiture autonome marquera la fin de l’assurance actuelle mais ouvrira de nouvelles perspectives assurantielles.
Pour ceux qui posent encore un regard amusé sur la voiture autonome, l’avenir proche risque de les faire radicalement changer de point de vue. En effet, les constructeurs impliqués dans le développement de ces voitures robots prédisent une mise en circulation « sécuritaire » dès 2020. L’enjeu est crucial au regard des récentes politiques de sécurité routière visant à abaisser au maximum le nombre de décès sur les routes. La nouvelle ligne de conduite sera très prochainement, grâce aux voitures autonomes, celle du « 0 décès ». Les algorithmes prédictifs au cœur des stratégies e-commerce.
L’algorithme s’est imposé comme un outil incontournable pour cibler au mieux le consommateur par des recommandations personnalisées : publicité ciblée, retargeting publicitaire, etc.
La dernière mode est même aux algorithmes prédictifs, au cœur de la stratégie e-commerce des entreprises. En combinant l’analyse de données avec les statistiques prédictives, les e-commerçants tentent de prévoir les comportements des consommateurs, notamment des internautes, et agir par anticipation. En pratique, les moteurs d’algorithme prédictifs, ou encore de marketing prédictif, ont vocation à agréger tous types de données sur les internautes, afin de proposer à chaque individu des produits ou un contenu qui correspondent à ses besoins et/ou ses envies. Pour aller encore plus loin, certains commerçants en ligne se dotent d’outils de filtrage collaboratif ayant vocation à identifier les produits qu’ont achetés d’autres internautes ayant le même profil. Alain Bensoussan Lexing Droit Marketing électronique. "Il faut appliquer le droit des humains au droit des robots"
Encadrement des systèmes d'armes létaux autonomes. Les chatbots et leurs erreurs inhumaines. GLaDOS - Portal Wiki.
Trois lois de la robotique. Un article de Wikipédia, l'encyclopédie libre.
Les Trois lois de la robotique, formulées par l'écrivain de science-fiction Isaac Asimov, sont des règles auxquelles tous les robots positroniques qui apparaissent dans ses romans doivent obéir. Énoncé[modifier | modifier le code] Un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu'un être humain soit exposé au danger.Un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la Première loi.Un robot doit protéger son existence tant que cette protection n'entre pas en conflit avec la Première ou la Deuxième loi. Au cours du cycle des livres sur les robots, une loi zéro, qui prendra une importance considérable, sera instituée par deux robots, R. Giskard Reventlov et R. Intelligence artificielle, éthique et gestion des risques. L’intelligence artificielle suscite de nombreuses interrogations tant sur le plan juridique qu’en matière d’éthique.
L’intelligence artificielle est une technologie qui suscite des craintes. En effet, l’introduction de l’intelligence artificielle et de son corollaire, l’autonomie de décision et d’action dans son rapport avec l’humain, posent de nombreuses interrogations juridiques et éthiques. Cette technologie va bouleverser nos habitudes et remet en cause les certitudes des technologues mais aussi des futurs utilisateurs.
Une attention particulière est accordée à l’éthique et plus précisément à la définition du sens et des valeurs dès la conception de l’intelligence artificielle mais aussi au droit et à la sécurité informatique.