
Un rapport européen épingle les risques de l’intelligence artificielle L'intelligence artificielle va être un bouleversement important pour les travailleurs explique le Comité économique et social européen. Dans un rapport, il dévoile ses recommandations sur le sujet, avec un accent mis sur le côté social évidemment. Emplois, éthique, influence sur nos décisions et éducation sont autant de points abordés. Depuis plusieurs années, l'intelligence artificielle – au sens large du terme – connait des progressions fulgurantes dans de nombreux domaines. Dernier exemple en date, la victoire sans appel 3 à 0 d'Alpha Go (créé par DeepMind, une filiale de Google) sur Ke Jie, qui est considéré comme le numéro un mondial au jeu de Go. En 2017, les institutions françaises découvrent-elles l'Intelligence artificielle ? L'année 2017 semble être synonyme de réveil pour la France sur ces sujets, enfin diront certains. Lire l'avis du CESE sur l'intelligence artificielle Le Comité économique et social européen fait le point sur ses avantages et... ses risques
Le danger que représente l’intelligence artificielle Bien que l’intelligence artificielle soit devenue un élément indissociable de notre quotidien, elle représente aussi un danger. En effet, malgré ses nombreux avantages, certains aspects de l’IA révèlent des inconvénients dont les conséquences pourraient être dévastatrices. Depuis sa création, l’intelligence artificielle se présente comme une solution révolutionnaire à nos problèmes quotidiens. L’intelligence artificielle, un danger ou non ? Commençons par un petit rappel de ce qu’est l’intelligence artificielle. Par ailleurs, une sous-catégorie de l’IA, le machine learning, permet aux ordinateurs d’apprendre eux-mêmes à résoudre des problèmes. Le champ d’application de l’IA s’élargit à mesure que la technologie évolue. La controverse de l’IA À mesure que l’IA progresse, certains voient en elle une menace montante. Pour d’autres, l’intelligence artificielle menace même les humains d’un danger critique d’extinction. Les risques immédiats de l’intelligence artificielle Le phénomène Deepfake
Quand la Science-Fiction annonce les dangers de l’Intelligence Artificielle L’Homme conservera-t-il sa position en tant qu’intelligence supérieure sur Terre ? C’est la question soulevée actuellement face à la course à l’innovation technologique qui se produit outre-atlantique, à commencer chez Google. Et comme vous devez vous en douter, l’Intelligence Artificielle, quand elle n’est pas le gentil compagnon de voyageurs intergalactiques ou d’Iron Man, est très souvent vue comme une menace dans la littérature ou le cinéma de Science-Fiction. “Grâce à la science-fiction, nous savons que la première chose que l’I.A. fera sera de prendre le contrôle et de nous atomiser, tous autant que nous sommes.” Damien Walter – The Guardian Chez les anglophones, on parle d’« A.I. Alors quels sont les scénarios de cette prise de pouvoir de l’intelligence artificielle ? Skynet, le Réseau qui vise l’annihilation de l’Humanité dans Terminator Skynet, ça vous parle ? HAL 9000, le programme assassin dans 2001, L’Odyssée de l’Espace “Je suis désolé Dave, je ne crois pas pouvoir faire ça.”
Cadre juridique appliqué à l’IA – blogintelligenceartificielle Comme évoqué dans la page précédente, l’intelligence artificielle va probablement égaler et même dépasser l’intelligence humaine, d’ici une trentaine d’années. Cette forme d’intelligence, qui serra présente sous forme de robots humanoïdes, entre autres, sera certaines autonome dans toutes ses activités comme un humain. Ces robots pourront donc se déplacer, agir et s’alimenter tout seul, et c’est là qu’intervient le droit. Surviennent alors de multiples questions: un robots peut-il être responsables de ses actes? De plus, le transhumanisme se joindra aussi surement à ce nouvel ensemble. L’intelligence artificielle contrôlé par quelque grande société, prend actuellement de plus en plus d’ampleur et c’est pourquoi, les Etats-Unis et l’Asie réfléchissent sérieusement aux dispositions à prendre. Le droit relatif à l’intelligence artificielle est pour l’instant assez restreint. Isaac Asimov, écrivain de science fiction, à quant à lui définie 3 lois de la robotique qui sont les suivantes:
Meta : quand le chatbot de Facebook tourne au conspirationnisme Plus d’un demi-siècle après leur première apparition en 1966, les chatbots sont toujours d’actualité. Et contrairement à ce que l’on pourrait penser, ils ont parfois autant de choses à révéler sur nous que sur la technologie qui les compose. Récemment Meta, anciennement Facebook, en a fait les frais en rendant publique la nouvelle version de son chatbot BlenderBot. BlenderBot 3 est capable de tenir des discussions et même d'aller chercher des informations sur Internet pour alimenter le dialogue avec son interlocuteur humain. En effet, en l'espace de deux jours seulement après son lancement, les utilisateurs remontaient déjà à Meta des extraits de conversation préoccupants, et les captures d'écran fleurissaient sur les réseaux sociauxréseaux sociaux, des plus amusantes aux plus alarmantes. BlenderBot a aussi déclaré à certains qu'il était de confession chrétienne tandis qu'à d'autres il demandait d'entrée de jeu des blagues salaces, je cite : « plus elles sont sales, mieux ça vaut.
Intelligence artificielle : pourquoi il faut différencier la réalité de la fiction Tous les cinq ans une technologie s'impose dans l'opinion publique comme celle sur laquelle on doit tout miser. On l'a vu se produire avec le cloud et le big data. Aujourd'hui c'est indubitablement l'intelligence artificielle qui est sur toutes les lèvres et sur laquelle toutes les entreprises communiquent (souvent à tort et à travers). Des start-up se créent pour capitaliser sur l'effet de mode et des vieux produits font peau neuve en se "boostant" à grand coup de marketing. Mais il s'y ajoute aussi une polémique récurrente sur le danger que pourrait représenter cette technologie. S'y opposent deux visions : d’un côté l'informatique, de l’autre la science-fiction. Deux compréhensions opposées du terme "intelligence artificielle" Le problème fondamental est qu'il y a deux populations distinctes qui parlent de deux choses bien différentes. Une polémique qui dure et entretient la confusion Il ne faut pas éclipser les vrais risques Des progrès récents moins dramatiques qu'on ne le pense
Intelligence artificielle : la complexe question de l'éthique Avec le développement des intelligences artificielles se posent de nombreuses questions sociétales. En particulier, comment définir une éthique de ce domaine ? Armen Khatchatourov, philosophe à Télécom École de Management et membre de la Chaire « Valeurs et politiques des informations personnelles » de l’IMT, observe et analyse avec attention les réponses proposées à cette question. L’une de ses principales préoccupations est de voir comment l’éthique tente d’être normée par un cadre législatif. Dans la course effrénée de l’intelligence artificielle menée par les GAFA, aux algorithmes toujours plus performants ou aux décisions automatisées toujours plus rapides, l’ingénierie est reine, car porteuse de la très convoitée innovation. En particulier, il étudie les aspects problématiques de l’encadrement législatif des IA. « Le risque c’est de perdre tout esprit critique » Armen Khatchatourov Éthique by design : les mêmes limites que la privacy by design ? L’éthique n’est pas un produit
Ce robot plie le linge à votre place Des chercheurs aux États-Unis ont créé un robot qui plie le linge. Si ce n’est pas le premier de ce genre, il est 5 à 10 fois plus rapide que les systèmes issus de précédents travaux dans ce domaine. Bientôt la fin de la corvée de pliage du linge ? Des chercheurs de l'université de Californie à Berkeley ont créé un robot capable d'effectuer cette tâche étonnamment complexe, et bien plus rapidement que tout autre robot similaire. Dans leur article qui sera présenté à la conférence de robotique IROS2022, à Kyoto (Japon) la semaine prochaine, ils détaillent le fonctionnement de leur création et les obstacles rencontrés. Démonstration du robot SpeedFolding qui parvient à poser un vêtement à plat et à le plier selon un schéma prédéfini. © UC Berkeley Le robot est capable de plier un vêtement en moins de 120 secondes en moyenne, soit 30 à 40 pliages par heure.
Norman, la première intelligence artificielle conçue pour être psychopathe Laissez-nous vous présenter Norman, un algorithme d'intelligence artificielle (IA) entraîné par le MIT Lab et inspiré par Norman Bates, personnage éponyme (et notoirement psychopathe), de Psychose d'Alfred Hitchcock... Mais même s'il est représenté sous les traits d'un inquiétant jeune homme (un montage approximatif à partir de la photo d'Anthony Perkins, interprète de Psychose), Norman n'est qu'un algorithme de reconnaissance visuelle on ne peut plus ordinaire, ayant appris à décrire une image à partir d'une large base d'images commentées, comme tous les systèmes basés sur le deep learning. La différence ? Norman n'a pas été entraîné à partir de données anodines pour lui apprendre à décrire son environnement, mais à partir d'images et de descriptions terribles. Montrer l'influence des données sur l'apprentissage de l'intelligence artificielle Les internautes sont encouragés à "aider Norman à se réparer" en répondant eux aussi à un questionnaire de Rorschach.
Intelligence artificielle : de l'importance des principes de vigilance et de loyauté des algorithmes pour "garder la main" La CNIL publie la synthèse du débat public organisé sur « les enjeux éthiques des algorithmes et de l’intelligence artificielle » . 3 000 personnes ont participé à 45 manifestations, avec pour objectif de donner des éléments de réponses à la question suivante : « comment permettre à l’Homme de garder la main ? ». La Présidente de la CNIL, Isabelle Falque-Pierrotin, a présenté ce rapport en présence du Secrétaire d’État chargé du Numérique, Mounir Mahjoubi, et du député chargé par le gouvernement d’une mission sur l’intelligence artificielle, Cédric Villani. Pourquoi ce rapport sur les enjeux éthiques des algorithmes Selon la Loi pour une République Numérique, la CNIL a pour mission de « mener une réflexion sur les questions éthiques et de société posées par les nouvelles technologies ». Les problématiques soulevées par l’intelligence artificielle 2 principes fondateurs pour réguler l’intelligence artificielle Un principe de loyauté des algorithmes Un principe de vigilance/réflexivité
En Allemagne, une IA va contrôler les feux de circulation pour gérer le trafic routier La municipalité de Bad Hersfeld en Allemagne va tester le recours à l’intelligence artificielle pour piloter les feux de circulation afin de permettre aux premiers secours d'arriver plus vite sur les lieux d'un accident. La ville de Bad Hersfeld souhaite laisser une intelligence artificielle contrôler son réseau de feux de circulation en cas d'urgence. Le but est de permettre aux services concernés de circuler le plus vite possible et de se rendre sur des lieux d'accidentaccident en moins de 10 minutes. Dans un premier temps, l'idée est qu'une intelligence artificielle puisse à la fois calculer et recommander le trajet le plus rapide, mais également intervenir directement sur le trafic en jouant sur les feux de circulation, afin de donner la priorité aux pompiers. Pour y arriver, un système central de contrôle des feux de circulation a dû être installé. Il s'agit là d'une nouvelle étape pour une ville relativement impliquée dans les nouvelles technologies.
Ce rapport est disponible sur Calaméo mais en anglais, je me demande s'il existe une version rédigé en français?
Houria Meddas by meddas_groupec Mar 16
Perspective intéressante ! by sudre_groupe2_psy Mar 15