Intelligence artificielle : la complexe question de l'éthique
Avec le développement des intelligences artificielles se posent de nombreuses questions sociétales. En particulier, comment définir une éthique de ce domaine ? Armen Khatchatourov, philosophe à Télécom École de Management et membre de la Chaire « Valeurs et politiques des informations personnelles » de l’IMT, observe et analyse avec attention les réponses proposées à cette question. L’une de ses principales préoccupations est de voir comment l’éthique tente d’être normée par un cadre législatif.
Ethique et morale en Intelligence Artificielle : Un chantier d'avenir
Faut-il interdir les robots tueurs, ces armes autonomes capables de fonctionner sans intervention humaine ? Les programmes militaires (en tout premier lieu la DARPA aux USA) se sont évidemment intéressés très tôt aux armes capables de fonctionner seules et dans un but originellement assez louable d’ailleurs : protéger du feux ses propres soldats. Ce sont ces organisations qui ont, les premières, développé ces nouveaux outils pour leur propre compte (on peut également penser, en vrac, au GPS, à internet, etc…). Aussi, dans les années 60, de vastes programmes gouvernementaux ont été des investisseurs phares (avant certaines désillusions) et ce, dès les premières heures de l’IA. Des projets de défense militaire couplés à l’IA fourmillent partout dans le monde avec les dérapages que cela peut engendrer sur l’humanité.
Cadre juridique appliqué à l’IA – blogintelligenceartificielle
Comme évoqué dans la page précédente, l’intelligence artificielle va probablement égaler et même dépasser l’intelligence humaine, d’ici une trentaine d’années. Cette forme d’intelligence, qui serra présente sous forme de robots humanoïdes, entre autres, sera certaines autonome dans toutes ses activités comme un humain. Ces robots pourront donc se déplacer, agir et s’alimenter tout seul, et c’est là qu’intervient le droit. Ces machines deviendrons en quelques sortes des êtres à part entière (pourvu peut être même d’une conscience), libre de leurs actions grâce à leur capacité de mouvements et de penser. Tout ceci n’est pas sans rappeler le film I-Robot, ou autre film de science-fiction du même genre. Surviennent alors de multiples questions: un robots peut-il être responsables de ses actes?
Google crée un comité d'éthique pour son intelligence artificielle
Google Deepmind, la filiale d'Alphabet dédiée à l'intelligence artificielle, crée une équipe de recherche pour travailler aux côtés des ingénieurs et s'assurer que les progrès technologiques n'entraînent pas des dérives. Des risques pour l‘emploi en passant par la menace des armes autonomes ou des biais discriminants, les sujets polémiques liés à l'intelligence artificielle (IA) ne manquent pas. Deepmind, la filiale d'Alphabet dédiée à ce domaine, crée une unité consacrée aux questions éthiques et sociétales soulevées par l'intelligence artificielle, baptisée Deepmind Ethics and Society (DMES).
Un rapport européen épingle les risques de l’intelligence artificielle
L'intelligence artificielle va être un bouleversement important pour les travailleurs explique le Comité économique et social européen. Dans un rapport, il dévoile ses recommandations sur le sujet, avec un accent mis sur le côté social évidemment. Emplois, éthique, influence sur nos décisions et éducation sont autant de points abordés. Depuis plusieurs années, l'intelligence artificielle – au sens large du terme – connait des progressions fulgurantes dans de nombreux domaines.
La CNIL se prononce sur l'éthique des algorithmes et de l'intelligence artificielle
Les algorithmes, des boîtes noires dont les enjeux nous dépassent ? La question se pose aujourd'hui au niveau national. Pas plus tard qu'en mai 2017, ils ont joué un rôle crucial dans l'élection présidentielle française, sous l'angle du big data et des réseaux sociaux.
Intelligence artificielle : les risques d'une utilisation malveillante
26 experts spécialisés en intelligence artificielle, cybersécurité et robotique ont rédigé un rapport alarmiste sur les dangers d'un dévoiement de ces technologies. Ils passent en revue divers scénarios inquiétants qui vont jusqu'à des attaques terroristes et des manipulations politiques à l'aide de fausses vidéos indétectables. Interview : comment est née l'intelligence artificielle ? L’intelligence artificielle vise à mimer le fonctionnement du cerveau humain, ou du moins sa logique lorsqu’il s’agit de prendre des décisions. Jean-Claude Heudin, directeur du laboratoire de recherche de l’IIM (Institut de l’Internet et du multimédia), nous explique l'origine de ces recherches.
Le deep learning
Vous entendez parler du deep learning, mais vous n’en avez pas encore compris la profondeur ? Cette vidéo est faite pour vous ! Fidèle à mon habitude, voici la liste des choses essentielles, mais pourtant éliminées par manque de place et pour rester accessible au plus grand nombre. L’apprentissage non-supervisé Ma vidéo laisse penser que l’apprentissage automatique se limite aux cas où l’on cherche à prédire une sortie (Y) en fonction d’une ou plusieurs entrées (X). C’est ce qu’on appelle en termes techniques de l’apprentissage « supervisé »; où une des variables joue un rôle privilégié, puisqu’on cherche à la prédire.
Intelligence artificielle
L'intelligence artificielle (IA) est « l'ensemble des théories et des techniques mises en œuvre en vue de réaliser des machines capables de simuler l'intelligence humaine »[1]. Ses finalités et son développement suscitent, depuis toujours, de nombreuses interprétations, fantasmes ou inquiétudes s'exprimant tant dans les récits ou films de science-fiction que dans les essais philosophiques[5]. La réalité semble encore tenir l'intelligence artificielle loin des performances du vivant ; ainsi, l'IA reste encore bien inférieure au chat dans toutes ses aptitudes naturelles[6]. Définition[modifier | modifier le code] Le terme « intelligence artificielle », créé par John McCarthy, est souvent abrégé par le sigle « IA » (ou « AI » en anglais, pour Artificial Intelligence).