Comment Airbnb pourrait refuser des locataires selon leur profil en ligne. Biais de raisonnement et dangers des algorithmes. Aujourd’hui, les algorithmes sont partout.
Ce sont des écritures informatiques, des procédures systématisées de résolution de problèmes qui suivent une suite de règles strictement définies par leurs concepteurs·trices. Par exemple, par le biais de la publicité ciblée, ils orientent nos comportements de consommation. Ils sélectionnent également les informations auxquelles nous sommes exposés sur les réseaux sociaux, et pèsent même sur nombre de décisions économiques et juridiques. De manière générale, lorsque nous souhaitons identifier l’origine d’un mal qui affecte la société (un attentat, une crise économique, un chômage massif…), une question qui vient naturellement à l’esprit est la suivante : « à qui profite le crime ? ». Achats, déplacements, enregistrements de voix... J'ai fouillé dans les données que Google conserve sur moi depuis treize ans (et rien ne lui échappe) Comme la plupart des réseaux sociaux, le géant d'internet propose la possibilité à ses utilisateurs de télécharger leurs archives personnelles.
Collecte de Google v3 2. L’Age du capitalisme de surveillance – Signaux Faibles. La bombe mathématique. Lecture automatique de CV, détermination de primes d’assurance automobile personnalisées, estimation des probabilités de récidive d’un condamné, publicité ciblée, évaluation des universités, attribution d’un crédit ou communication politique: on ne compte plus les domaines gérés par les algorithmes.
Ils sont pratiques, efficaces et meilleur marché que leur équivalent humain, ce qui explique leur incroyable extension ces vingt dernières années. Mais ceux qui y recourent brandissent un puissant argument supplémentaire en leur faveur: ils sont plus justes. Ils ne sont pas soumis aux préjugés et à toutes les déformations que l’esprit humain impose inévitablement à la réalité. Ils l’évaluent objectivement.
Lire aussi: L’intelligence artificielle, elixir amer. La bombe mathématique. Your Apps Know Where You Were Last Night, and They’re Not Keeping It Secret. The millions of dots on the map trace highways, side streets and bike trails — each one following the path of an anonymous cellphone user. One path tracks someone from a home outside Newark to a nearby Planned Parenthood, remaining there for more than an hour. Another represents a person who travels with the mayor of New York during the day and returns to Long Island at night.
Yet another leaves a house in upstate New York at 7 a.m. and travels to a middle school 14 miles away, staying until late afternoon each school day. Only one person makes that trip: Lisa Magrin, a 46-year-old math teacher. Her smartphone goes with her. An app on the device gathered her location information, which was then sold without her knowledge. The app tracked her as she went to a Weight Watchers meeting and to her dermatologist’s office for a minor procedure. Un café où l'on paie avec ses données personnelles. Un café où l’on paie avec ses données personnelles Innovation - Tech Shiru Café propose aux étudiants d’obtenir des boissons gratuites en échange de leurs informations personnelles.
Affaire DisinfoLab : quelles retombées potentielles sur la recherche publique et la science ouverte. Le début du mois d’août a été marqué par l’affaire Disinfolab qui a mis un violent coup de projecteur sur la question de la réutilisation des données issues des réseaux sociaux à des fins de recherche.
S’inscrivant dans le contexte explosif de l’affaire Benalla, elle a fait naître une bruyante polémique, pas forcément propice au développement d’une analyse juridique rigoureuse des différentes questions qu’elle soulève. Maintenant qu’un peu de temps est passé, il paraît intéressant de se replonger dans cette affaire qui constitue un véritable cas d’école pour l’application du nouveau cadre de la protection des données personnelles issu du RGPD. La CNIL ayant été saisie suite au dépôt de nombreuses plaintes, il sera extrêmement intéressant d’observer sa décision, qui va devoir trancher beaucoup de points épineux.
Pour mémoire, l’affaire éclate le 8 août dernier lorsque l’ONG belge EU Disinfolab publie les résultats d’une étude des tweets émis à propos de l’affaire Benalla. Service Central d'Authentification Université Jean Moulin Lyon 3. NtechLab - Augmenting Intelligence. Digital Labor, Zoomorphisme et Travail réellement humain. La semaine dernière, Jean-Michel Salaün a réactivé son blog pour publier un billet intitulé «Digital Labor, plateformes et données» dans lequel il critique la notion de Digital Labor, telle qu’elle apparaît notamment dans les travaux d’Antonio Casilli.
Il y conteste que l’on puisse considérer comme le « résultat d’un travail » les traces que nous laissons sur Internet, y compris lorsque cette activité est exploitée économiquement par les grandes plateformes, type GAFAM. Son propos reprend des arguments déjà avancés par certains sociologues du travail, qui reprochent au concept de Digital Labor son imprécision, la trop grande diversité des situations qu’il embrasse et, par là, le risque d’assimiler potentiellement à du travail toute forme d’activité liée au numérique : Un programme de Google aide le Pentagone à analyser les images filmées par les drones. L’entreprise a mis à disposition du Pentagone des technologies d’intelligence artificielle permettant d’identifier des éléments dans des vidéos.
Google ne l’avait pas annoncé publiquement. Mardi 6 mars, le site américain Gizmodo a révélé l’existence d’un partenariat entre l’entreprise et le Pentagone, destiné à aider ce dernier à analyser des images de drones. Cette démarche s’inscrit dans le projet Maven du ministère américain de la défense, lancé en avril 2017, visant à « intégrer plus efficacement l’intelligence artificielle et l’apprentissage automatique à travers les opérations pour maintenir nos avantages face à des adversaires de plus en plus compétents », précisait alors une note du Pentagone.
Sa priorité : « rendre rapidement intelligible l’énorme volume de données accessibles au ministère de la défense », notamment les images filmées par les drones, à des fins de renseignement. Identifier des cibles. Du rôle prédictif des données à la gouvernementalité algorithmique. Sur Place de la Toile, le 12 décembre dernier, Xavier de la Porte recevait Guillaume Main, consultant et statisticien, qui s’occupe du site Statosphère ; Erick Alphonse, maître de conférences au Laboratoire d’Informatique de Paris-Nord (LIPN) et responsable d’Idaaas, une société qui construit des modèles prédictifs, notamment via PredictiveDB, un logiciel prédictif et Antoinette Rouvroy, chercheuse au Fonds national de la Recherche scientifique, qui travaille sur les formes de pouvoir induites par l’usage des données.
« La machine n'a pas la moindre idée de la complexité du langage » Docteur en intelligence artificielle, Gilles Moyse est le fondateur de Récital, une start-up spécialisée dans le traitement automatisé du langage.
D'après lui, nous sommes en pleine « bulle de l'IA », et les indéniables progrès réalisés ces dernières années en matière d'intelligence artificielle ne menacent pas tant l'emploi que la souveraineté des États. La reconnaissance faciale débarque sur Facebook, mais pas en Europe. Depuis cette semaine de fin décembre, Facebook utilise la reconnaissance faciale pour lutter contre l'usurpation d'identité sur le réseau social.
Désormais, si une photo d'eux est posté sur le réseau social, les utilisateurs pourront être prévenus, même sans y avoir été identifiés. Mais pas en Europe. C'est une fonctionnalité nouvelle du réseau social au milliard d'utilisateurs qui soulève quelques interrogations. Faut-il sauver l'humanité de la « tyrannie des mathématiques » ? On ne sait pas s’il a raison lorsqu’il prédit la fin de l’humanité d’ici deux ou trois générations, mais puisque personne ne le prenait au sérieux quand il annonçait avant tout le monde la crise des subprimes de 2007, ça vaut le coup de l’écouter aujourd'hui. Paul Jorion a publié le 2 novembre un nouvel ouvrage : À quoi bon penser à l’heure du grand collapse ? (Fayard). Intelligence Artificielle : Est-ce que les mythes deviennent des réalités ?
Izly, l’appli du Cnous qui géolocalise des étudiants et renseigne des sociétés publicitaires. Pixels a enquêté sur cette application qui permet à des centaines de milliers d’étudiants de payer leurs repas au restaurant universitaire. LE MONDE ECONOMIE | • Mis à jour le | Par Martin Untersinger Tous les jours, des centaines de milliers d’étudiants dégainent leur smartphone et l’application Izly pour payer leur « restau U ». Ce que valent nos adresses quand nous signons une pétition – Framablog. Unilever pré-sélectionne ses salariés grâce à une IA. Depuis plus de dix ans, l'entreprise américaine HireVue propose à ses clients de faire passer des entretiens de recrutement à distance, par vidéo. L'audioguide du futur sera un collier tyrannique. « La société algorithmique serait un cauchemar » Performeurs du quotidien. Dans une société où les grandes utopies collectives se sont éteintes, le corps est devenu un refuge et la santé une quête existentielle.
Grâce aux objets connectés et au big data, chacun peut devenir un athlète en puissance, sommé de se mesurer et d’optimiser ses performances à chaque instant. Complots et fake news : les réponses flippantes du Google Assistant français - Tech. Google Assistant pose un gros problème à la recherche d'information fiable sur le web : il n'apporte qu'une réponse. La dictature du nombre ? Toi, être humain normalement constitué, tu es scanné, mesuré, segmenté. Tu es une composant d’un calcul. « Dans l’ombre de la peur » : les premières pages de la bande dessinée sur le big data. Pratiques informationnelles et analyse des traces numériques : de la représentation à l’intervention. L’histoire du développeur qui aurait dû lire Kant.
De la responsabilité algorithmique. Qu’est-ce qu’un algorithme juste ? Celui qui rend compte de ses effets. Artificialintelligence.